Eres Arnold y no lo sabes


Todos los cuerpos absorben radiación electromagnética, y emiten espontáneamente una parte en forma de radiación en equilibrio térmico con el cuerpo (es decir, como fotones a la misma temperatura que la fuente térmica). Esa es la radiación de cuerpo negro. Arnold Schwarzenegger sabe mucho sobre esto, y se cubre en barro frío cada vez que tiene que luchar contra un depredador, porque estos aliens pueden ver la radiación emitida por su cuerpo. Pero todos emitimos esta radiación, no solo Arnold (la radiación no depende de cuantas horas pasemos en el gimnasio). Así que en este post vamos a ver cómo esto se puede usar para saber qué temperatura tienen las personas en los aeropuertos, y también para saber qué temperatura tiene el universo.

¿En qué longitud de onda emite radiación de cuerpo negro una persona a 36 grados Celsius? A partir del espectro de Planck se puede ver que la máxima emisión ocurre para una longitud de onda que sigue la ley de Wien,

donde b = 2898 μm K. Noten que esto significa que al cambiar la temperatura del cuerpo, cambia el “color” de la radiación electromagnética emitida, ya que el color depende del espectro emitido (y fuertemente de en qué longitud de onda está el pico del espectro). Entonces ¿en qué longitud de onda debe observar una cámara para detectar este tipo de radiación? Para 36 grados Celsius, T= 309 K, y λmax ≈ 9.4 μm. De hecho, si variamos la temperatura entre 30 y 40 grados Celsius, el máximo del espectro varía respectivamente entre 9.56 y 9.26 μm (o entre 9560 y 9260 nm). Esto corresponde a radiación electromagnética infraroja. ¡Así que mirando los colores en una cámara infrarroja podemos estimar la temperatura de los cuerpos! Y así también sabemos en qué región del espectro electromagnético funcionan los ojos del depredador que persigue a Schwarzenegger:

Sabiendo esto, ¿a qué temperatura se encuentra la radiación cósmica de fondo? Estamos rodeados por radiación electromagnética de cuerpo negro que fue emitida en el momento en que se formaron los primeros átomos en el universo, y que llega a nosotros proveniente de todas las direcciones. Esta radiación corresponde a fotones que se desacoplaron de la materia en la época de recombinación: el momento en que la temperatura del universo bajó lo suficiente como para que protones y electrones pudieran combinarse formando átomos de hidrógeno (eléctricamente neutros), aproximadamente 370.000 años luego del Big Bang, y cuando el universo estaba una temperatura media de unos 3000 K. Antes, el campo electromagnético interactuaba con la materia, mientras que luego de la recombinación los fotones de la radiación cósmica de fondo dejaron de interactuar (básicamente, porque la radiación electromagnética dejó de sufrir scattering con los electrones libres). ¡Como resultado, la radiación cósmica de fondo que vemos hoy es un gas de fotones en equilibrio térmico con la materia que formaba el universo hace 13.771.700.000 años!

En 1964, Arno Penzias y Robert Wilson, realizando mediciones con una antena en los Laboratorios Bell, encontraron una extraña señal de microondas con un máximo en λmax ≈ 1 mm. Esa señal captada por la antena corresponde a este gas de fotones, mensajero del universo temprano. Usando nuevamente la ley de Wien podemos ver que esta longitud de onda corresponde a T ≈ 2.7 K (la temperatura determinada originalmente por Penzias y Wilson en 1964 era ligeramente mayor, por la incerteza experimental del instrumento). Esa temperatura corresponde a la temperatura media del gas de fotones que forma la radiación cósmica de fondo. Y no es 3000 K, sino alrededor de 1000 veces menor por la expansión del universo, que resulta también en la expansión del gas y en una disminución de la temperatura a medida que el universo envejece. Porque la temperatura T de un gas de fotones cumple la ecuación

donde U es su energía total, y V el volumen ocupado por el gas. A mayor volumen, menor temperatura.

Penzias y Wilson midieron la temperatura media de esta radiación. Pero hoy sabemos que la temperatura de este gas de fotones no es perfectamente isótropa, y que su anisotropía (es decir, su pequeña variación cuando miramos en diferentes direcciones en el universo) nos brinda información sobre el universo temprano. Cuando se resta el valor medio a la radiación, la proyección de las fluctuaciones en la potencia de la radiación que nos llega de diferentes regiones del firmamento se ve así:

Pero esta es otra historia.

P.D.: Recuerden pensar para la clase del lunes cómo se puede armar un sistema para pesar fotones (una “balanza” de fotones). Los que se atrevan pueden tratar de construir esa “balanza” y traerla a clase. Yo el lunes llevo la mía.

Un científico magnético


En X-Men First Class (2011), Magneto viaja a las montañas nevadas de Villa Gesell en Argentina para perseguir a dos nazis responsables del asesinato de sus padres. Muchísimos años antes, otro científico viajó al oeste para entender el magnetismo. Hoy vamos a hablar de Lev Landau y su estadía en Alemania en 1929, cuando llegó con solo 21 años para trabajar con Paul Ehrenfest.

Los materiales magnéticos fueron un misterio para la física por siglos. Uno de los primeros en estudiarlos en forma sistemática y científica fue el médico y físico William Gilbert (1544-1603) en Inglaterra. Gilbert fue el primero en reconocer que la Tierra es un gran imán, y que la razón por la que una brújula orienta sus polos con los polos norte y sur del planeta se debe a la fuerza de atracción magnética entre polos opuestos. Coulomb, Øersted, Ampère y Faraday caracterizaron las propiedades de imanes y estudiaron la fuerza magnética, pero sin intentar comprender cuál era el origen de la fuerza que ciertos materiales ejercen sobre otros (es decir, cuál era la causa del magnetismo). Recién a fines del siglo XIX Pierre Curie comenzó a estudiar las propiedades termodinámicas de materiales magnéticos. Hay tres tipos de materiales magnéticos (hay otro tipo más, pero hoy con tres categorías nos alcanza): los ferromagnéticos (que tienen magnetización permanente, como los imanes de cocina), los paramagnéticos (materiales que se magnetizan en la dirección de un campo magnético externo, como el aluminio y el óxido de hierro, y que como resultado sienten una fuerza magnética atractiva ), y los diamagnéticos (materiales que se magnetizan en la dirección opuesta a la de un campo magnético externo, como el bismuto, y que sienten una fuerza magnética repulsiva).

Con la aparición de la mecánica cuántica, los físicos comenzaron a comprender que el origen del magnetismo estaba asociado a que cada átomo o molécula en el material se comporta como un pequeño imán (es decir, como un dipolo magnético; Paul Langevin fue el primero en proponer esta idea). De esta forma, si todos los imancitos de los átomos están alineados el material es ferromagnético, y si solo se alinean cuando imponemos un campo externo, el material es paramagnético o diamagnético. El origen del momento magnético de cada átomo estaría asociado al spin de los electrones, o al movimiento orbital de los electrones en las órbitas más altas, o a una combinación de ambos efectos.

En 1927, Pauli explicó el comportamiento paramagnético usando estas ideas y la mecánica estadística. ¿Pero cuál es el origen del diamagnetismo? ¿Por qué ciertos materiales alinean sus dipolitos magnéticos en forma opuesta al campo magnético externo? Si uno considera los electrones libres en un metal, al imponer un campo magnético uno espera, clásicamente, que los electrones se muevan en órbitas circulares.

El momento dipolar magnético generado por la corriente a lo largo de esta órbita, por la ley de Lenz, se opone al campo magnético externo. Uno podría entonces pensar que el problema de explicar el origen del diamagnetismo está resuelto: es causado por el movimiento de todos los electrones conductores (es decir, los electrones libres) en presencia de un campo magnético externo. Sin embargo, Niels Bohr y Hendrika Johanna van Leeuwen mostraron que bajo la aproximación clásica, el resultado neto de considerar todas las corrientes de los electrones en el material se anula (en términos muy sencillos, por cada órbita circular generando en algún punto una corriente en alguna dirección, existe otra órbita de otro electrón generando una corriente opuesta). Así, el diamagnetismo no puede ser explicado simplemente considerando las órbitas circulares de los electrones clásicos.

En esta situación Landau, con solo 21 años, llega a Alemania en 1929. Y Ehrenfest no tiene mejor idea que proponerle que intente resolver el problema de por qué ciertos materiales son diamagnéticos. Un problema contra el que habían fallado físicos gigantes, y los padres fundadores de la mecánica cuántica. ¿Qué podía salir mal?

Para la sorpresa de todos, Lev Landau resolvió el problema rápidamente. Y en 1930, solo un año después, el paper con sus resultados ya estaba publicado (este fue el cuarto paper que publicó Landau; el primero fue publicado cuatro años antes en 1926). Su paper sobre diamagnetismo podría haber sido publicado antes, pero Landau quiso esperar a que Piotr Kapitza le conteste unas dudas sobre las mediciones experimentales que existían hasta ese momento. Como vimos en clase, Landau consideró el problema cuántico, reconoció la necesidad de cuantizar las órbitas (hoy a esa cuantización se la llama cuantización de Landau, y los niveles de energía cuantizados se llaman “niveles de Landau”), y mostró que en el caso cuántico, los electrones libres en un metal pueden dar origen a diamagnetismo. No solo eso, Landau también mostró que la susceptibilidad magnética del material diamagnético es independiente de la temperatura para temperaturas suficientemente bajas (algo que ya había observado experimentalmente Pierre Curie), y predijo otros resultados que se verificaron experimentalmente poco tiempo después.

Los que quieran mirar el paper original de Landau (¡con solo 8 páginas!), lo pueden encontrar en el siguiente link:

Chandra y las enanas blancas


There’s a starman waiting in the sky,
he’d like to come and meet us
but he thinks he’d blow our minds

David Bowie, Starman (1972).

Chandra y las enanas blancas” no es el nombre de una banda de rock (¡podría serlo!). Pero el personaje principal de esta historia es el verdadero Starman, el hombre de las estrellas. Y los aportes que hizo a la física nos vuelan la mente. Esta es la historia de Subrahmanyan Chandrasekhar y un tipo muy particular de estrellas. Chandrasekhar ganó el premio Nobel en 1983 por sus estudios sobre la evolución y la estructura de las estrellas, pero su camino hasta ese premio no fue fácil. El Dr. Chandra, un personaje en 2001: A Space Odissey, lleva su nombre en homenaje a él.

En la última clase vimos que la presión de degeneración en un gas de fermiones es central para explicar la estabilidad de estrellas enanas blancas (y también juega un rol en estrellas de neutrones). Una enana blanca es una estrella que quemó todo su material nuclear: una estrella como el Sol, luego de quemar todo el hidrógeno, quema material nuclear más pesado como el Helio. Para ello necesita mayor presión y temperatura en el núcleo, pero también genera mas energía en la reacción nuclear, y se expande hasta convertirse en una gigante roja. Luego de quemar todo el material disponible para la fusión, sufre una inestabilidad y expulsa buena parte de su masa. El núcleo de la estrella, que puede tener una masa equivalente a la del Sol pero comprimirse hasta un volumen como el de la Tierra, mantiene el calor residual y forma la enana blanca. La siguiente imágen muestra a Sirius B, una enana blanca, indicada por la flecha:

Si una enana blanca no quema más material nuclear, ¿qué mantiene a la estrella estable evitando el colapso gravitatorio? La respuesta es la presión de degeneración en un gas de Fermi: en la estrella la densidad de la materia es tan grande que el gas está degenerado (es decir, las funciones de onda de las diferentes partículas se superponen), y y la presión de Fermi es suficiente para contrarrestar la fuerza de gravedad. Recuerden que la presión de radiación resulta del principio de exclusión de Pauli. Es el hecho de que dos ferminones no puedan tener los mismos números cuánticos lo que evita que la estrella colapse gravitatoriamente. Algo parecido ocurre en estrellas inicialmente aún mas masivas, que pueden evolucionar a estrellas de neutrones. Finalmente, si la masa inicial de la estrella es aún mayor (más grande que la masa límite de Chandrasekhar), la presión de degeneración no es suficiente para evitar el colapso gravitatorio y se puede formar un agujero negro.

Los que quieran leer mas detalles sobre el balance de fuerzas en una estrella enana blanca pueden ver el siguiente link (9 páginas, en inglés):

Chandrasekhar reconoció la existencia de una masa límite, por encima de la cual las estrellas podían colapsar y formar agujeros negros, muy temprano en su carrera científica. Se enfrentó a diversos prejuicios raciales en Inglaterra y en Estados Unidos. Pero, al mismo tiempo, su idea sobre la existencia de una masa límite también se adelantó a la época. Cuando Chandrasekhar formuló su idea, el conocimiento sobre interiores estelares era bastante incipiente. Y por ese motivo muchos físicos y astrónomos presentaron dudas razonables a su validez. Chandrasekhar no bajó los brazos y a lo largo de varias décadas trabajó en mecánica estadística, dinámica de fluidos, relatividad general, y otros temas hasta crear una teoría muy sólida sobre la física de las estrellas. Mientras estudiaba estos fenómenos, y muchos otros, Chandrasekhar estableció las bases de lo que hoy conocemos como la teoría de interiores estelares, y sobre cómo evolucionan las estrellas en el tiempo. Las contribuciones de Chandrasekhar al estudio de interiores estelares, la evolución de las estrellas hasta la formación de enanas blancas o agujeros negros, y sus estudios de la estadística de Fermi-Dirac para explicar la estabilidad de las enanas blancas, lo llevaron a tener diversas disputas con astrónomos renombrados de la época, como Arthur Eddington (y también, eventualmente, a ganar el premio Nobel junto con William Fowler). Los que quieran conocer parte de esta historia, más detalles sobre evolución estelar y la formación de agujeros negros, y algunos detalles jugosos sobre la pelea entre Chandrasekhar y Eddington, pueden ver este video:


Física macroscópica, Turing y Gödel

Hace unos años un grupo de científicos demostró que, para un problema físico particular, obtener ciertas propiedades macroscópicas a partir del conocimiento completo y preciso de las leyes microscópicas del sistema es indecidible. El problema particular que consideraron es el de calcular la diferencia de energía entre niveles de un semiconductor (el “gap espectral“, o la energía necesaria para mover un electrón del estado fundamental al estado excitado, en un sistema con muchos electrones). El valor del gap espectral tiene un impacto en el comportamiento macroscópico del sistema: los semiconductores tienen un gap espectral y sus propiedades físicas dependen de este gap, mientras que si no existe un gap, el material sufre una transición a otro estado.

Lo que se demostró es que conociendo completamente la física microscópica del sistema cuántico, la pregunta “¿tiene el sistema un gap espectral?” es indecidible. Que este problema sea indecidible significa que es imposible construir un algoritmo general que siempre nos de la respuesta correcta. Esto no significa que la pregunta no pueda contestarse, o que no pueda calcularse el valor del gap. Lo que significa es que el cálculo de esta propiedad macroscópica (aún conociendo completamente la física miscroscópica del sistema) no puede hacerse usando un único algoritmo que valga en todos los casos. En otras palabras, puede existir un algoritmo que permita obtener la respuesta para un material particular, pero que para otro material el mismo método no sirva. O, como dicen los autores del trabajo, “no puede existir un método general que permita determinar si un material descripto por la mecánica cuántica tiene un gap espectral o no”. No hay atajos elegantes. Hay que hacer física.

La demostración de indecibilidad se realizó mostrando que el problema es equivalente al problema de la parada de Turing. En 1936, Turing demostró que no es posible escribir un “programa” que ejecutado en una “computadora” (técnicamente, un algoritmo en una máquina de Turing) pueda decidir si otro algoritmo terminará de ejecutarse en un número finito de pasos o no. El teorema de Turing está relacionado con otros dos teoremas famosos de Gödel, que dicen (en su forma débil) que es imposible escribir en forma algorítmica un conjunto de reglas (o axiomas) para generar la aritmética que sea a la vez correcta y completa. Noten que si el sistema es incompleto, en algún momento encontraremos algún teorema válido que no podremos probar con los axiomas que tenemos. ¡Y si es incorrecto, en algún momento podremos probar que vale cierto teorema, y también que no vale ese mismo teorema!

Los que quieran saber más pueden leer un artículo sobre el problema del gap espectral en Phys.org, o el paper original publicado en la revista Nature:

Sin embargo, noten que este resultado no implica que no podamos armar teorías físicas fundamentales, que no se pueda conocer el Hamiltoniano que describe la física básica del problema, o que no se pueda conocer si el sistema tiene un gap o no. Lo que implica es que no alcanza con saber matemáticas y usarlas como en una “receta”, y que siempre tendremos que hacer aproximaciones o consideraciones según la física de cada sistema.

El resultado sobre la indecibilidad del problema del gap espectral es parte de varios resultados recientes que identifican problemas indecidibles o no computables en diferentes áreas de la física (tanto clásica como cuántica), y parten de una pregunta hecha en 1994 por Roger Penrose en un libro hermoso pero también polémico, en el que Penrose se pregunta si existirán problemas de este tipo en sistemas físicos. Mas allá de los detalles técnicos, los resultados pueden ser muy perturbadores para los que esperaban que el curso de mecánica estadística les permita justificar, en forma sistemática, todo lo que no comprendemos de la física macroscópica a partir de fenómenos microscópicos (¡que probablemente tampoco comprendamos muy bien!).

En cierto sentido, esto tiene una relación con la visión de las jerarquías en la física de Feynman de un posteo anterior, donde Feynman decía que es un error pensar que uno puede partir de uno de los extremos (la física microscópica) y caminar solamente desde ese extremo hacia el otro (la física macroscópica), creyendo que de esa forma se alcanzará un entendimiento completo. En esta línea de pensamiento les aconsejo fuertemente leer también este genial artículo de 1972 de Philip Anderson:

donde el señor Anderson entre otras cosas dice:

The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe [...] At each stage entirely new laws, concepts, and generalizations are necessary, requiring inspiration and creativity to just as great a degree as in the previous one.

La intuición física de Feynman y de Anderson (y de muchos otros físicos) se adelantó a estos resultados más recientes y más formales. Vale aclarar que este artículo de Anderson a veces es mal interpretado. Anderson no dice que los sistemas extensos sigan nuevas leyes fundamentales, o que nuevas fuerzas fundamentales aparezcan como resultado de considerar sistemas con nuevas partículas. Pero sí dice que conocer las leyes fundamentales no es suficiente para con ellas reconstruir el universo en forma sistemática, y que al considerar cada aumento en la escala del sistema, es necesario realizar nueva investigación en física básica, e introducir nuevos conceptos, nuevas ideas y nuevas generalizaciones. Cada capa de la cebolla requiere aproximaciones nuevas, ideas ingeniosas, y mucha creatividad.

¿Y por qué el Señor Anderson insiste con esto? ¿Por qué lo hace? Porque elige hacerlo:


Full Metal Thermodynamics


Full Metal Jacket (1987) es una película de Stanley Kubrick sobre la guerra de Vietnam. La película es famosa por mostrar, con un humor bastante peculiar, el maltrato físico y verbal que sufre un grupo de cadetes por parte del sargento de artillería Hartman. Ronald Lee Ermey, un ex-instructor de la marina y que Kubrick había contratado como asesor técnico, audicionó y se quedó con el papel de Hartman. Muchas de las escenas en las que el sargento insulta a los cadetes, hablando rápido y a los gritos, fueron improvisadas o basadas en las experiencias previas de Lee Ermey como instructor en la marina. Se estima que cerca de la mitad de sus diálogos no estaban en el guión original, y fueron inventados a medida que se filmaba la película.

El título de la película no se refiere a un chaleco antibalas, sino a un tipo de munición. Y no solo las municiones se hacen de metal. Se puede hacer termodinámica con bolas de acero. En teoría cinética de los gases definimos el tensor de presión de un gas a partir del tensor de flujo de momento asociado a las fluctuaciones térmicas. El siguiente video ilustra cómo se relaciona la presión con el momento entregado por los choques de partículas contra las paredes de un recipiente. Y lo hace en forma muy visual, usando bolas de acero (bastante grandes) que se sacuden al azar dentro de un tubo:


Pueden hacer el experimento equivalente (numérico en lugar de en el laboratorio) con el notebook con el modelo del gas ideal de esferas rígidas. Cada vez que una esfera rígida choca contra una pared, la componente normal de la velocidad cambia de signo. Por ejemplo, cuando una partícula con velocidad vx choca contra una pared con normal x, su velocidad cambia a -vx. Y como resultado, el cambio total en el momento lineal de la partícula (en valor absoluto) es -2mvx. Luego, la pared absorve un momento igual a 2mvx.

Usando esto, y contando la cantidad de choques contra una pared, se puede calcular la fuerza que las partículas ejercen sobre la pared como resultado de los choques.

Relacionado con este tema, en clase también vimos cómo el límite macroscópico de la ecuación de Boltzmann nos da las ecuaciones de los fluidos para un gas muy diluido, y cómo el retorno al equilibrio del sistema puede caracterizarse, macroscópicamente, con coeficientes de transporte. La validez del límite hidrodinámico puede verse también en simulaciones numéricas usando pelotitas, y a veces la ecuación de Boltzmann o ecuaciones de dinámica molecular para un número muy grande de partículas se usan para simular la dinámica macroscópica de gases y líquidos. El Colab que usamos nosotros para estudiar un gas ideal usa apenas 400 partículas, pero con tiempo y paciencia pueden hacerse cosas más grandes. Tomemos como ejemplo el caso de una instabilidad macroscópica que ocurre en gases y líquidos cuando existe un gradiente tangencial en el momento del fluido: la intestabilidad de Kelvin-Helmholtz.

La inestabilidad de Kelvin-Helmholtz ocurre cuando dos fluidos (usualmente con densidad diferente) se mueven en dirección contraria. En la superficie que separa los dos fluidos el gradiente de velocidad es muy grande. Esta superficie es inestable frente a pequeñas perturbaciones, y al intestabilizarse se genera un patrón de vórtices conocidos como vórtices de Kármán. La intestabilidad que se desarrolla intenta recobrar una distribución homogénea del momento, y resulta en un mezclado y transporte eficiente entre las dos regiones del fluido. Pueden ver un ejemplo macroscópico en la siguiente foto de unas nubes, noten “las crestas” en el borde superior de las nubes, que resultan en el transporte y mezclado del gas en la parte mas baja con el gas en la parte superior.

Esta misma inestabilidad puede verse en una simulación de dinámica molecular de la mezcla de dos gases usando 9.000.000.000 de partículas (¡comparen este número con las 400 que usamos en clase en el Colab!). Observen cómo se forman las mismas estructuras que en la foto, cómo la mezcla se vuelve cada vez más homogénea como resultado de las colisiones y el transporte, y cómo un flujo macroscópico emerge de la dinámica molecular microscópica:


P.D.: Para todos los que sigan pensando en cómo la flecha del tiempo emerge en sistemas físicos y su relación con la entropía, les dejo el link a este excelente paper publicado en Physical Review X del grupo de investigación en Inglaterra de una graduada del DF, Natalia Ares. El trabajo mide en el laboratorio el costo termodinámico de medir el tiempo, y muestra que cuanto más se intenta mejorar la precisión de un reloj, más aumento de la entropía produce la medición del tiempo. Así, el paper vincula lo que mide un reloj (el tiempo) con el aumento de la entropía.

Eterno retorno de una configuración sin recuerdos


Ha llegado el momento de anunciar: Esta isla, con sus edificios, es nuestro paraíso privado. He tomado algunas precauciones -físicas, morales- para su defensa: creo que lo protegerán. Aquí estaremos eternamente -aunque mañana nos vayamos- repitiendo consecutivamente los momentos de la semana y sin poder salir nunca de la conciencia que tuvimos en cada uno de ellos.

Adolfo Bioy Casares, La invención de Morel (1940).

El título del posteo de hoy hace referencia a Eterno resplandor de una mente sin recuerdos, película de 2004 dirigida por Michel Gondry en base a un guión de Charlie Kaufman. Los interesados en las repeticiones pueden ver también I’m Thinking of Ending Things en Netflix (dirigida por Charlie Kaufman), y Memento o Tenet (estas dos últimas dirigidas por Christopher Nolan). También pueden leer “La invención de Morel” de Adolfo Bioy Casares. Pero sepan que la repetición eterna, como los espejos y la cópula para un heresiarca de Uqbar, es abominable (excepto tal vez para Friedrich Nietzsche). Probablemente nos parezca antinatural justamente porque nunca observamos en la naturaleza que las configuraciones de sistemas extensos se repitan exactamente de la misma forma. Esta observación fue una de críticas que Poincaré y Zermelo, entre otros, realizaron a la teoría estadística de Boltzmann. Imagino que Sísifo también tendría sus objeciones. Y a Dormammu tampoco le deben gustar las repeticiones (hablando de repeticiones y retornos, el hechicero supremo regresa el próximo 5 de mayo):


En el teorema H de Boltzmann, su entropía casi siempre crece. Imaginemos un gas que ocupa la mitad de un recinto, separado en dos por un tabique. En un dado instante el tabique se retira, y el gas se expande hasta ocupar todo el recinto (con el consecuente aumento de la entropía). Dado que todas las configuraciones son equiprobables, en algún instante todas las moleculas del gas podrían estar en la primera mitad del recinto (al fin y al cabo, podemos tener configuraciones aún más extrañas que incluyan a un cerebro de Boltzmann, ¿no?). Pero si en ese preciso instante volvemos a poner el tabique, recuperamos en forma espontánea la primera configuración, que tenía menor entropía. Este posible retorno a una configuración previa fue visto por Poincaré como un problema abominable para la teoría de Boltzmann (aunque más tarde Poincaré se convenció de su valor y se retractó).

Efectivamente, si el número de configuraciones de un gas es discreto, existe una probabilidad no nula de que vuelva espontáneamente a una configuración previa (y si las configuraciones son contínuas, de que vuelva a una configuración arbitrariamente cercana a la configuración inicial). Pero el tiempo necesario para volver a encontrar esta configuración es increíblemente largo, lo que vuelve a este escenario irrelevante a fines prácticos. Estimemos esto para un metro cúbico de aire a temperatura ambiente (T = 300 K). Vimos que el número de configuraciones Σ de un gas ideal lo podemos calcular (en el ensamble microcanónico) como

donde S es la entropía, N el número de partículas, v el volúmen específico del gas, m la masa de las partículas (mayormente moléculas de N2), k la constante de Boltzmann, y h la constante de Planck (ignoro un factor aditivo despreciable en la entropía). Usando valores típicos para estos parámetros (y considerando que v ≈ 5 x 10-29 m3), obtenemos que el número de microestados o configuraciones posibles es

¡Este es un número enorme, con más de 1025 dígitos! Asumamos ahora que las configuraciones cambian cada vez que hay un choque entre partículas. Es decir, cuando las partículas en el gas chocan, intercambian momento, y pasan de una configuración a otra. Como vimos en clase, para el aire a temperatura y presión ambiente, el tiempo entre choques es τ ≈ 10-10 s. Y si todas las configuraciones son equiprobables, podemos estimar el tiempo medio para repetir una configuración como proporcional a Σ·τ, que sigue siendo un número muy grande (un tiempo con más de 1025 dígitos, medido en segundos). ¡Como comparación, la edad del universo es de 4.3 x 1017 s, muchísimo más chico que el tiempo medio necesario para repetir la configuración de un gas en solo un metro cúbico! Por lo que el “casi siempre crece” de Boltzmann está bastante bien.

Como adelanté en un posteo previo, hoy sabemos que aún en sistemas con tamaño finito, fuera del equilibro la probabilidad de que la entropía crezca es mucho más grande que la probabilidad de que la entropía disminuya. De hecho, sabemos que la razón entre estas dos probabilidades es igual a la exponencial de la variación de la entropía por el tiempo transcurrido, un número que se vuelve exponencialmente más grande a medida que la entropía del sistema crece, o que transcurre más tiempo. En el caso general, este resultado se conoce como el teorema de fluctuación detallado.

Además de las películas que ya mencioné y de Dr. Strange, muchas otras películas exploran la idea abominable de la eterna repetición (aunque no todas la consideran abominable). En particular, les recomiendo las siguientes para mirar durante la pandemia: El día de la marmota (1993), Corre Lola corre (1996), La llegada (2016), y La chica que saltaba en el tiempo (2006, para los amantes del animé).

Stanislaw Lem y sus demonios


Stanislaw Lem fue un escritor polaco, autor de Solaris. El libro fue la base para el guión de la película Solaris (1972) dirigida por Andrei Tarkovsky (no estoy hablando de la remake de Hollywood). En Solaris, Lem imagina el oceano de un planeta que desarrolla en forma espontánea su propia conciencia (con un claro vínculo con los cerebros de Boltzmann del post previo). Pero las novelas y cuentos de Stanislaw Lem tienen otros vínculos interesantes con la termodinámica y la mecánica estadística.

En Ciberíada, Lem escribe cuentos breves sobre las aventuras de dos constructores, Trurl y Clapaucio. Ambos tienen poderes y capacidad de construcción sobrehumanos, y fueron ilustrados, en la edición original de Ciberíada, por Daniel Mróz, un artista polaco responsable de la ilustración de otros libros y novelas de Lem.

En una de las historias de Ciberíada, ambos son capturados por un pirata con un doctorado sediento de información. Para escapar, Trurl y Clapaucio construyen un demonio del segundo tipo (un demonio del primer tipo, para Lem, es un demonio de Maxwell, considerado una trivialidad por Trurl y Clapaucio). El demonio de Lem puede observar todas las moléculas de un gas en cada microestado posible, y extraer información de sus configuraciones. ¿Al fin y al cabo, siendo todos los microestados posibles, algunos microestados pueden corresponder a ordenamientos de las moléculas que revelen leyes fundamentales o secretos insondables del universo, no? Esto es nada más y nada menos que le versión gaseosa de La Biblioteca de Babel de Borges.

Si primero jura solemnemente, de arriba abajo y cruzando su corazón, que nos dejará ir, le daremos información, información sobre información infinita, es decir, le haremos su propio Demonio de Segundo Tipo, que es mágico y termodinámico, no-clásico y estocástico, y de cualquier viejo barril o estornudo extraerá información para usted sobre todo lo que fue, es, puede ser o será. ¡Y no hay demonio más allá de este Demonio, porque es del Segundo Tipo, y si lo quiere, dígalo ahora!

Stanislaw Lem, Ciberíada (1965)

Pero, ¿qué es un demonio de Maxwell, o el despreciado demonio del primer tipo de Lem? Imaginemos un gas en un recinto, separado por un tabique. En el tabique agregamos una compuerta con un resorte, como se muestra en la siguiente figura:

En 1867, James Clerk Maxwell imaginó un demonio que podía conocer el estado de cada una de las partículas en este gas. Este demonio es puesto a controlar la compuerta de la figura. Cada vez que una molécula del lado B se acerca a la compuerta, el demonio observa su energía cinética. Si es grande, el demonio cierra la compuerta. Pero si su energía cinética es pequeña, el demonio abre la compuerta y deja pasar la molécula al recinto A. De esta forma, el demonio puede bajar la temperatura y disminuir la entropía del gas en el recinto A, violando (aparentemente) la segunda ley de la termodinámica.

La solución a esta paradoja está relacionada con que el proceso de medir, almacenar, y borrar información del estado de cada molécula requiere realizar trabajo. Los primeros argumentos contra el demonio de Maxwell, de Szilárd Y Brillouin en 1929, consideraban simplemente el trabajo asociado a medir la velocidad de cada molécula, y su costo energético. En este caso, considerando el sistema completo (el gas en ambos recintos y el demonio de Maxwell), la entropía crece y el segundo principio está salvado. Con el tiempo las restricciones en el mínimo de energía necesario para medir el estado de la molécula fueron bajando, y argumentos más modernos contra el demonio de Maxwell usan teoría de la información para estimar el mínimo costo energético necesario para procesar la información adquirida por el demonio. La buena noticia es que aún con las cotas más modernas, el segundo principio no puede ser violado por el demonio de Maxwell, sin importar cuán omnisciente sea (y probablemente Trurl y Clapaucio tampoco puedan violarlo). Los que quieran aprender más sobre este tema pueden leer este excelente artículo, encontrado en cuatrimestres previos por Guillem Pérez Nadal:

Guardianes de la galaxia


Hoy hablaremos sobre cerebros de Boltzmann y su presencia ubicua en la cultura popular. Pueden leer este post mientras escuchan la banda de sonido de Guardianes de la Galaxia (ya se enterarán por qué es relevante en este tema).

El concepto de cerebros de Boltzmann se origina en un paper de Boltzmann de 1895 publicado en Nature, en el que Boltzmann defiende su teoría cinética de diversas críticas. Boltzmann mostró que para un gas diluido, una cantidad que llamó “H” (la entropía de Boltzmann) crecía siempre hasta alcanzar un máximo. Esto llevó a que la gente se pregunte por qué el universo no se encuentra entonces en el estado más desordenado posible. La respuesta posible (y la primer respuesta que dió Boltzmann) es que el universo debe haber comenzado en un estado de muy baja entropía, y actualmente se encuentra evolucionando hacia un estado cada vez más desordenado y con mayor entropía. Pero la segunda respuesta posible (idea de un asistente de Boltzmann, el Dr. Schuetz) es la siguiente:

Supongamos que todo el universo está, y descansa para siempre, en equilibrio térmico. La probabilidad de que una (solo una) parte del universo se encuentre en un cierto estado, es menor cuanto más lejos esté este estado del equilibrio térmico. Pero esta probabilidad es mayor cuanto mayor es el universo. Si asumimos que el universo es lo suficientemente grande, podemos hacer que la probabilidad de que una parte relativamente pequeña del universo esté en cualquier estado (sin importar el estado de equilibrio) sea tan grande como queramos. También podemos aumentar la probabilidad de que, aunque todo el universo esté en equilibrio térmico, nuestro mundo esté en su estado actual.

Es decir, de la misma forma que la probabilidad de que todas las partículas de un gas en una habitación estén espontáneamente en una esquina de la habitación es muy baja pero no nula, también existe una probabilidad muy baja (pero no nula) de que en un estado de equilibrio térmico desordenado muy extenso, una fluctuación cree la Tierra con todos nosotros y tal como la vemos ahora. De la misma forma, una fluctuación también podría crear espontáneamente los libros de la Bibioteca de Babel de Borges, o los diálogos de una película de David Lynch.

Si una fluctuación (con muy baja probabilidad) podría hacer esto, ¿por qué no podemos imaginar otros microestados posibles? Como una forma de reducir al absurdo este segundo argumento de Boltzmann, se propuso entonces el concepto de los cerebros de Boltzmann: Una fluctuación podría generar espontáneamente un cerebro completo, flotando en el espacio, con todos sus falsos recuerdos de haber existido previamente. ¿Cómo sabemos que nosotros no somos cerebros de Boltzmann, y que actualmente no estamos decayendo hasta apagarnos en el baño térmico del universo?

El argumento en contra de esta idea fue desarrollado por Sir Arthur Eddington en 1931, y más tarde Richard Feynmann también lo consideró en sus Feynman Lectures. Feynman, luego de explicar que si fueramos una fluctuación del universo, al realizar mediciones en zonas que no observamos antes deberíamos ver un nivel de aleatoriedad diferente al que recordamos, concluye:

Por lo tanto, concluimos que el universo no es una fluctuación, y que el orden es un recuerdo de las condiciones cuando las cosas comenzaron. Esto no quiere decir que comprendamos la lógica de esto. Por alguna razón el universo tuvo una entropía muy baja inicialmente, y desde entonces la entropía ha aumentado. Así que ese es el camino hacia el futuro. Ese es el origen de toda irreversibilidad, eso es lo que hace que los procesos de crecimiento y decadencia, que nos hace recordar el pasado y no el futuro, nos recuerden las cosas que están más cerca de ese momento en la historia del universo cuando el orden era más alto que ahora, y por qué no podemos recordar cosas donde el desorden es más alto que ahora, al que llamamos el futuro.”

En años más recientes el concepto de cerebros de Boltzmann también se usó para reducir al absurdo algunas ideas en ciertas teorías cosmológicas. Y, extrañamente, apareció repetidas veces en la cultura popular. Como ejemplos, en Guardianes de la Galaxia vol. 2, Ego (el padre de Peter Quill, alias “Star-lord“) es un cerebro gigante en el espacio, creado al inicio de los tiempos:

Y en Futurama existe una raza de cerebros que flotan en el espacio, que fueron creados espontáneamente durante el Big Bang, y que tienen el poder de volver estúpida a la gente (excepto, obviamente, a los que ya son estúpidos):

La idea del asistente de Boltzmann, el Dr. Schuetz, hoy vuelve a tener interés en el estudio de sistemas estadísticos fuera del equilibrio: hoy sabemos que existen evoluciones posibles de estos sistemas en las que la entropía decrece (durante un tiempo acotado) en lugar de crecer. Pero también sabemos que la probabilidad de hallar al sistema evolucionando en esas condiciones es mucho menor que la probabilidad de que el sistema aumente su entropía. Y no solo eso, podemos calcular la probabilidad de que sucedan este tipo de eventos. Existen varias relaciones que permiten calcular la probabilidad de estos eventos; dos de ellas, que fueron verificadas experimentalmente en los últimos años y juegan un rol importante en el estudio de sistemas cuánticos abiertos, materia condensada, y otros sistemas fuera del equilibrio, son la igualdad de Jarzynski y el teorema de fluctuación de Crooks. Básicamente, estas relaciones nos dicen que la probabilidad de encontrar al sistema “desordenándose” en lugar “ordenándose” crece exponencialmente con el cambio de entropía (o de energía libre) en el sistema. Es decir, cuanto más cambie la entropía al evolucionar el sistema hacia el equilibrio, menos probable será encontrar al sistema evolucionando en la dirección contraria. Más adelante volveremos sobre este tema en otro posteo.

Para los interesados en estudio de la conciencia y las neurociencias, en el Departamento de Física el grupo de Enzo Tagliazucchi (@Etagliazucchi) trabaja en temas de conciencia. Y el laboratorio de Gabriel Mindlin (@GaboMindlin) trabaja en temas relacionados con biofísica y el cerebro (¡y sabe cómo leer los sueños de los pájaros!).

Materia oscura concentrada


En la última clase vimos el teorema del virial. Este es un teorema muy útil, tanto en la versión de Mecánica Estadística como en su versión de Mecánica Clásica (y probablemente más en el primer caso). Pero también es un teorema que puede ser fácilmente aplicado a situaciones en las que no se cumplen sus hipótesis, para darnos cualquier resultado. Recuerden que las partículas en el sistema deben estar confinadas por el potencial. A continuación les doy dos ejemplos de aplicaciones (aunque no les voy a dar la fórmula para fabricar materia oscura concentrada, y todos sabemos que no es dos partes de quarks plutónicos, una parte de cesio, y una botella de agua).

Comencemos con el gas ideal. Hemos visto que el teorema del virial puede escribirse como

donde las coordenadas r son las posiciones de las partículas, F son las fuerzas sobre cada partícula, N es el número de partículas, y T la temperatura. La suma es sobre todas las partículas. Para un gas ideal, la única fuerza que tenemos está asociada a la presión P. Usando que la fuerza total, sumada sobre todas las partículas, es ∑ r · F = – ∫ r · n P dA (donde n es la normal externa a la pared, y dA el diferencial de superficie), después de hacer algunas cuentas se puede llegar (usando el teorema de Gauss) a que el término de la izquierda es 3PV (con V el volúmen). ¡Por lo que recuperamos la ecuación de estado de un gas ideal: PV = NkT!

Veamos ahora una aplicación más oscura. Consideremos un clúster de N galaxias (es decir, una acumulación de galaxias en el universo), cada una con masa m y con masa total M = Nm. Por ejemplo, podría ser el cúmulo de Coma, un clúster con más de 1000 galaxias identificadas a 321 millones de años luz de la Tierra:

Las galaxias en el clúster están confinadas por la fuerza gravitatoria. Nos conviene ahora escribir el teorema del virial, para una fuerza que decae como el cuadrado de la distancia, como

donde U es la energía cinética y V ahora es la energía potencial. Asumiendo que el clúster es esférico, para la fuerza gravitatoria V = -3GM2/(5R), donde G es la constante de gravitación universal, y R el radio del clúster. Por otro lado la energía cinética media es <U> = M<v2>/2. De estas dos relaciones podemos estimar la masa del clúster como

La velocidad cuadrática media de las galaxias en el clúster se puede medir, por ejemplo, por corrimiento Doppler. Y la masa del clúster se puede estimar de forma independiente a esta fórmula a partir de la luminosidad del clúster, usando relaciones bien calibradas en astronomía. Y aquí comienzan los problemas: la fórmula obtenida con el teorema del virial da una masa M mayor que la que se estima con la luminosidad, sugiriendo que falta una fracción de materia que no estamos observando cuando miramos la luminosidad de las galaxias. Este argumento puede ser ampliado para considerar otras formas de energía (por ejemplo, la energía en el campo magnético de las galaxias y del clúster), pero esto no cambia el resultado central: hay una diferencia significativa en la masa estimada por diferentes medios.

Para el caso particular del clúster coma, los primeros estudios que indicaron esta discrepancia entre las masas estimadas de diferentes formas fueron realizados por Fritz Zwicky en 1933. Más tarde, Vera Rubin estudió en detalle la curva de rotación de galaxias individuales, y luego de estudios muy exhaustivos para muchas galaxias, encontró una discrepancia entre la dependencia radial de la velocidad de rotación esperada y la observada, indicando nuevamente una discrepancia entre la masa esperada y la masa observada. Los trabajos de Vera Rubin pusieron en claro la existencia de un problema en cosmología que continúa abierto hasta nuestros días.

Si bien estos no son los únicos argumentos a favor de la existencia de materia oscura, en conjunto con otros resultados nos indican que cerca del 85% de la materia en el universo tiene que ser materia oscura. Y para el caso particular del cúmulo de Coma, estimaciones usando mediciones astronómicas y el teorema del virial indican que cerca del 90% de la materia en el cúmulo es materia oscura.

La termodinámica y la mecánica estadística tiene aplicaciones en muchas otras áreas de la cosmología, y también en el estudio de agujeros negros. En el Departamento de Física, Guillermo Pérez Nadal, Gastón Giribet (@GastonGiribet) y el grupo de Física teórica de Altas Energías trabajan, entre otros temas, en el estudio de la entropía de agujeros negros.

El dinero es un gas (ideal?)



En esta escena de la película El lobo de Wall Street, dirigida por Martin Scorsese (uno de los grandes directores de la historia del cine), Matthew McConaughey habla la “fugacidad” de la bolsa de valores. Llamativamente, la lírica de la canción “Money“, de Pink Floyd (del disco The Dark Side of the Moon, y que forma parte de la playlist de la materia), tiene la memorable frase “Money, it’s a gas“. Y aparentemente ninguna de estas frases es simplemente una licencia poética. En muchos sentidos hay conexiones profundas entre la mecánica estadística y el modelado de los mercados bursátiles, que en algunos casos se remontan hasta los inicios de la teoría física.

Los que tengan curiosidad sobre cómo se usan herramientas de mecánica estadística para el estudio de economía y finanzas pueden mirar este muy buen review:

que fue publicado en Reviews of Modern Physics en 2009. El artículo es introductorio y explica varios de los conceptos que se usan comúnmente en el área de econofísica, incluyendo modelos estocásticos (como los modelos de camino al azar que vimos en clase), cómo se usa el ensamble canónico (o de Gibbs) y el ensamble gran canónico, los vínculos asociados a la “conservación del dinero”, o los vínculos que se usan en sistemas más realistas en los que pueden existir deudas y cómo esto resulta en diferentes equilibrios estadísticos. En particular, la Sección I, y la Sección II desde la subsección A hasta la C, se leen fácilmente, y usan muchos de los conceptos que introdujimos hasta ahora en la materia.

En las secciones II.B y II.C, los autores reemplazan el vínculo sobre la energía que usamos al derivar los ensambles, por un vínculo sobre el dinero total circulante. Si asumimos que el dinero total se conserva, la distribución de probabilidad de equilibrio para el dinero está dada por la distribución de Boltzmann-Gibbs,

donde m es la cantidad de dinero, y Tm es la “temperatura” estadística del sistema (es decir, el multiplicador de Lagrange). Esta cantidad (Tm) es igual al dinero medio disponible por persona. Noten que esta expresión para la probabilidad es formalmente igual a la obtenida en el ensamble canónico. Excepto por casos con ingresos extremadamente grandes (que deben ser modelados con otra distrubución de probabilidad, la distribución de Pareto), la distribución de Boltzmann-Gibbs está en buen acuerdo con los datos de muchos países. A modo de ejemplo, el review compara este resultado con la probabilidad acumulada en función de los ingresos de los individuos usando datos de la oficina de impuestos de los Estados Unidos.

En esta figura los puntos azules son datos (porcentaje acumulado de casos en función de los ingresos brutos ajustados de cada contribuyente), y la linea negra de la izquierda corresponde a la distribución de Boltzmann-Gibbs (o la distribución canónica), seguida por la distribución de probabilidad de Pareto.

Este artículo tiene también un hallazgo interesante sobre la visión amplia que tenía Boltzmann de la física, que más de 100 años atrás vislumbró la aplicabilidad de la mecánica estadística tanto en física como en otras áreas muy diversas del conocimiento (una visión que se cumplió con creces). En 1905 Boltzmann, hablando sobre la generalización y formalización de la mecánica estadística realizada por Gibbs, escribió:

“Esto abre una perspectiva amplia, si no pensamos solamente en objetos mecánicos. Consideremos aplicar este método a la estadística de seres vivos, de la sociedad, en sociología, etc.”

Boltzmann tomó algunas ideas de estadística que ya se aplicaban en su época en el estudio de la sociedad para construir su teoría de los gases diluidos. Así que su propuesta de aplicar la incipiente mecánica estadística en estudios de la sociedad y en sociología podría resultar esperable. Hoy esta aplicación en particular recibe el nombre de sociofísica; el grupo de Pablo Balenzuela (@polbalen) trabaja en estos temas en el Departamento de Física. Y la famosa novela de ciencia ficción “Fundación“, de Isaac Asimov, también juega con la idea de aplicar la teoría de gases diluidos en las ciencias sociales para predecir el posible desarrollo de una sociedad.

Las aplicaciones actuales de la mecánica estadística en biología, economía, y otras ciencias pueden resultar aún más inesperadas. Los que quieran mirar un ejemplo más reciente de aplicaciones en economía pueden leer este artículo en Nature Communications sobre eventos extremos en sistemas macroeconómicos.