Eres Arnold y no lo sabes


Todos los cuerpos absorben radiación electromagnética, y emiten espontáneamente una parte en forma de radiación en equilibrio térmico con el cuerpo (es decir, como fotones a la misma temperatura que la fuente térmica). Esa es la radiación de cuerpo negro. Arnold Schwarzenegger sabe mucho sobre esto, y se cubre en barro frío cada vez que tiene que luchar contra un depredador, porque estos aliens pueden ver la radiación emitida por su cuerpo. Pero todos emitimos esta radiación, no solo Arnold (la radiación no depende de cuantas horas pasemos en el gimnasio). Así que en este post vamos a ver cómo esto se puede usar para saber qué temperatura tienen las personas en los aeropuertos, y también para saber qué temperatura tiene el universo.

¿En qué longitud de onda emite radiación de cuerpo negro una persona a 36 grados Celsius? A partir del espectro de Planck se puede ver que la máxima emisión ocurre para una longitud de onda que sigue la ley de Wien,

donde b = 2898 μm K. Noten que esto significa que al cambiar la temperatura del cuerpo, cambia el “color” de la radiación electromagnética emitida, ya que el color depende del espectro emitido (y fuertemente de en qué longitud de onda está el pico del espectro). Entonces ¿en qué longitud de onda debe observar una cámara para detectar este tipo de radiación? Para 36 grados Celsius, T= 309 K, y λmax ≈ 9.4 μm. De hecho, si variamos la temperatura entre 30 y 40 grados Celsius, el máximo del espectro varía respectivamente entre 9.56 y 9.26 μm (o entre 9560 y 9260 nm). Esto corresponde a radiación electromagnética infraroja. ¡Así que mirando los colores en una cámara infrarroja podemos estimar la temperatura de los cuerpos! Y así también sabemos en qué región del espectro electromagnético funcionan los ojos del depredador que persigue a Schwarzenegger:

Sabiendo esto, ¿a qué temperatura se encuentra la radiación cósmica de fondo? Estamos rodeados por radiación electromagnética de cuerpo negro que fue emitida en el momento en que se formaron los primeros átomos en el universo, y que llega a nosotros proveniente de todas las direcciones. Esta radiación corresponde a fotones que se desacoplaron de la materia en la época de recombinación: el momento en que la temperatura del universo bajó lo suficiente como para que protones y electrones pudieran combinarse formando átomos de hidrógeno (eléctricamente neutros), aproximadamente 370.000 años luego del Big Bang, y cuando el universo estaba una temperatura media de unos 3000 K. Antes, el campo electromagnético interactuaba con la materia, mientras que luego de la recombinación los fotones de la radiación cósmica de fondo dejaron de interactuar (básicamente, porque la radiación electromagnética dejó de sufrir scattering con los electrones libres). ¡Como resultado, la radiación cósmica de fondo que vemos hoy es un gas de fotones en equilibrio térmico con la materia que formaba el universo hace 13.771.700.000 años!

En 1964, Arno Penzias y Robert Wilson, realizando mediciones con una antena en los Laboratorios Bell, encontraron una extraña señal de microondas con un máximo en λmax ≈ 1 mm. Esa señal captada por la antena corresponde a este gas de fotones, mensajero del universo temprano. Usando nuevamente la ley de Wien podemos ver que esta longitud de onda corresponde a T ≈ 2.7 K (la temperatura determinada originalmente por Penzias y Wilson en 1964 era ligeramente mayor, por la incerteza experimental del instrumento). Esa temperatura corresponde a la temperatura media del gas de fotones que forma hoy la radiación cósmica de fondo. Al momento en el que la radiación se desacopló de la materia, la temperatura del gas de fotones era de 3000 K, como mencionamos antes. Pero la temperatura que medimos hoy es casi 1000 veces menor por la expansión del universo, que expandió al gas y causó una disminución de la temperatura. Porque la temperatura T de un gas de fotones cumple la ecuación que derivamos en clase,

donde U es su energía total, y V el volumen ocupado por el gas. A mayor volumen, menor temperatura.

Repulsión

[Aquí] pueden bajar las notas de la clase práctica de ayer, en donde resolvimos el problema 10 de la guía. Cosas inmediatas para hacer: resolver el problema 11 de la guía, que trata sobre el gas de Fermi-Dirac ultrarrelativista.

Una pregunta inquietante: para el gas con relación de dispersión clásica en una caja cúbica, encontramos las funciones de onda de una partícula y pudimos escribir el logaritmo de la función de partición como una suma sobre los números cuánticos nx, ny y nz. Después aproximamos la sumatoria por una integral en el impulso. Es probable que cuando resuelvan el problema 11, que trata sobre un gas ultrarrelativista, lo primero que escriban, sin reflexionar demasiado, ya sea una integral en los impulsos. Pero esa integral tiene que haber sido antes una sumatoria. Y para haber escrito esa sumatoria tienen que haber resuelto la ecuación de Schrödinger de fermiones ultrarrelativistas, si tal cosa existiera. En todo caso, tienen que haber resuelto una ecuación de onda de la cual haya resultado la cuantización de los estados para fermiones ultrarrelativistas en una caja cúbica. ¿Cuál es esa ecuación? ¿Por qué lleva a la misma cuantización para el impulso que la ecuación de Schrödinger usual?

También les quería hacer un comentario sobre el problema 9, que trata sobre un gas ideal en dos dimensiones:  el ítem (c) involucra la función f1. Esta función puede escribirse en términos de funciones elementales (la integral que define a f1 puede resolverse). De ahí que sea posible escribir una expresión para el potencial químico también en términos de funciones elementales. Eso ya no será posible para el calor específico. Un ejercicio desconcertante que pueden intentar es aplicar el lema de Sommerfeld para encontrar el desarrollo del potencial químico a bajas temperaturas, tal como hicimos con el gas tridimensional, incluyendo más términos, de ser necesario. ¿Cuál es la primera contribución no nula en el desarrollo en potencias de  T?

La semana que viene ya empezamos una nueva guía.

Chandra y las enanas blancas


There’s a starman waiting in the sky,
he’d like to come and meet us
but he thinks he’d blow our minds

David Bowie, Starman (1972).

Chandra y las enanas blancas” no es el nombre de una banda de rock (¡podría serlo!). Pero el personaje principal de esta historia es el verdadero Starman, el hombre de las estrellas. Y los aportes que hizo a la física nos vuelan la mente. Esta es la historia de Subrahmanyan Chandrasekhar y un tipo muy particular de estrellas. Chandrasekhar ganó el premio Nobel en 1983 por sus estudios sobre la evolución y la estructura de las estrellas, pero su camino hasta ese premio no fue fácil. El Dr. Chandra, un personaje en 2001: A Space Odissey, lleva su nombre en homenaje a él.

Ayer vimos que la presión de degeneración en un gas de fermiones es central para explicar la estabilidad de estrellas enanas blancas (y también juega un rol en estrellas de neutrones). Una enana blanca es una estrella que quemó todo su material nuclear: una estrella como el Sol, luego de quemar todo el hidrógeno, quema material nuclear más pesado como el Helio. Para ello necesita mayor presión y temperatura en el núcleo, pero también genera mas energía en la reacción nuclear, y se expande hasta convertirse en una gigante roja. Luego de quemar todo el material disponible para la fusión, sufre una inestabilidad y expulsa buena parte de su masa. El núcleo de la estrella, que puede tener una masa equivalente a la del Sol pero comprimirse hasta un volumen como el de la Tierra, mantiene el calor residual y forma la enana blanca. La siguiente imágen muestra a Sirius B, una enana blanca, indicada por la flecha:

Si una enana blanca no quema más material nuclear, ¿qué mantiene a la estrella estable evitando el colapso gravitatorio? La respuesta es la presión de degeneración en un gas de Fermi: en la estrella la densidad de la materia es tan grande que el gas está degenerado (es decir, las funciones de onda de las diferentes partículas se superponen), y y la presión de Fermi es suficiente para contrarrestar la fuerza de gravedad. Recuerden que la presión de radiación resulta del principio de exclusión de Pauli. Es el hecho de que dos ferminones no puedan tener los mismos números cuánticos lo que evita que la estrella colapse gravitatoriamente. Algo parecido ocurre en estrellas inicialmente aún mas masivas, que pueden evolucionar a estrellas de neutrones. Finalmente, si la masa inicial de la estrella es aún mayor (más grande que la masa límite de Chandrasekhar), la presión de degeneración no es suficiente para evitar el colapso gravitatorio y se puede formar un agujero negro.

Los que quieran leer mas detalles sobre el balance de fuerzas en una estrella enana blanca pueden ver el siguiente link (9 páginas, en inglés):

Chandrasekhar reconoció la existencia de una masa límite, por encima de la cual las estrellas podían colapsar y formar agujeros negros, muy temprano en su carrera científica. Se enfrentó a diversos prejuicios raciales en Inglaterra y en Estados Unidos. Pero, al mismo tiempo, su idea sobre la existencia de una masa límite también se adelantó a la época. Cuando Chandrasekhar formuló su idea, el conocimiento sobre interiores estelares era bastante incipiente. Y por ese motivo muchos físicos y astrónomos presentaron dudas razonables a su validez. Chandrasekhar no bajó los brazos y a lo largo de varias décadas trabajó en mecánica estadística, dinámica de fluidos, relatividad general, y otros temas hasta crear una teoría muy sólida sobre la física de las estrellas. Mientras estudiaba estos fenómenos, y muchos otros, Chandrasekhar estableció las bases de lo que hoy conocemos como la teoría de interiores estelares, y sobre cómo evolucionan las estrellas en el tiempo. Las contribuciones de Chandrasekhar al estudio de interiores estelares, la evolución de las estrellas hasta la formación de enanas blancas o agujeros negros, y sus estudios de la estadística de Fermi-Dirac para explicar la estabilidad de las enanas blancas, lo llevaron a tener diversas disputas con astrónomos renombrados de la época, como Arthur Eddington. Y también, eventualmente, a ganar el premio Nobel junto con William Fowler.

Notas del parcial

Ahora que tengo su atención, voy a hablar de las notas del parcial. Van a estar publicadas hoy alrededor de las 16:40 19 horas. Traten de estar en el aula a eso de las 16:50, para que les devolvamos los parciales. Dejamos para el miércoles las consultas sobre la corrección.

La semana que viene

Esta semana tendremos varias horas de teórica, para recuperar clases de la semana pasada. El lunes solo tendremos teórica, en otra sesión maratónica pero gratificante. Para cerrar los temas de la primera mitad de la materia, y comenzar con la segunda mitad, este posteo va a tocar un tema que suscitó varias preguntas en el curso: ¿Podemos obtener la física macroscópica como un límite sistemático de la física microscópica, sin hacer aproximaciones, y en condiciones muy generales? La respuesta en general es que no, y para mostrar esto alcanza con dar un contraejemplo.

Hace unos años un grupo de científicos demostró que, para un problema físico particular, obtener ciertas propiedades macroscópicas a partir del conocimiento completo y preciso de las leyes microscópicas del sistema es indecidible. El problema particular que consideraron es el de calcular la diferencia de energía entre niveles de un semiconductor (el “gap espectral“, o la energía necesaria para mover un electrón del estado fundamental al estado excitado en un sistema con muchos electrones). El valor del gap espectral tiene un impacto en el comportamiento macroscópico del sistema: los semiconductores tienen un gap espectral y sus propiedades físicas dependen de este gap, mientras que si no existe un gap, el material sufre una transición a otro estado.

Lo que se demostró es que conociendo completamente la física microscópica del sistema cuántico, la pregunta “¿tiene el sistema un gap espectral?” es indecidible. Que este problema sea indecidible significa que es imposible construir un algoritmo general que siempre nos de la respuesta correcta. Esto no significa que la pregunta no pueda contestarse, o que no pueda calcularse el valor del gap. Lo que significa es que el cálculo de esta propiedad macroscópica (aún conociendo completamente la física miscroscópica del sistema) no puede hacerse usando un único algoritmo que valga en todos los casos. En otras palabras, puede existir un algoritmo que permita obtener la respuesta para un material particular, pero que para otro material el mismo método no sirva. O, como dicen los autores del trabajo, “no puede existir un método general que permita determinar si un material descripto por la mecánica cuántica tiene un gap espectral o no”. No hay atajos elegantes. No hay una lista de casos y un algoritmo que nos permita elegir qué método usar en cada caso. Hay que hacer física.

La demostración de indecibilidad se realizó mostrando que el problema es equivalente al problema de la parada de Turing. En 1936, Turing demostró que no es posible escribir un “programa” que ejecutado en una “computadora” (técnicamente, un algoritmo en una máquina de Turing) pueda decidir si otro algoritmo terminará de ejecutarse en un número finito de pasos o no. El teorema de Turing está relacionado con otros dos teoremas famosos de Gödel, que dicen (en su forma débil) que es imposible escribir en forma algorítmica un conjunto de reglas (o axiomas) para generar la aritmética que sea a la vez correcta y completa. Noten que si el sistema es incompleto, en algún momento encontraremos algún teorema válido que no podremos probar con los axiomas que tenemos. ¡Y si es incorrecto, en algún momento podremos probar que vale cierto teorema, y también que no vale ese mismo teorema!

Los que quieran saber más pueden leer un artículo sobre el problema del gap espectral en Phys.org, o el paper original publicado en la revista Nature:

Sin embargo, noten que este resultado no implica que no podamos armar teorías físicas fundamentales, que no se pueda conocer el Hamiltoniano que describe la física básica del problema, o que no se pueda conocer si el sistema tiene un gap o no. Lo que implica es que no alcanza con saber matemática y usarla como en una “receta”, y que siempre tendremos que hacer aproximaciones o consideraciones según la física de cada sistema.

El resultado sobre la indecibilidad del problema del gap espectral es parte de varios resultados recientes que identifican problemas indecidibles o no computables en diferentes áreas de la física (tanto clásica como cuántica), y parten de una pregunta hecha en 1994 por Roger Penrose en un libro hermoso pero también polémico, en el que Penrose se pregunta si existirán problemas de este tipo en sistemas físicos. Mas allá de los detalles técnicos, los resultados pueden ser muy perturbadores para los que esperaban que el curso de mecánica estadística les permita justificar, en forma sistemática, todo lo que no comprendemos de la física macroscópica a partir de fenómenos microscópicos (¡que probablemente tampoco comprendamos muy bien!).

En cierto sentido, esto tiene una relación con la visión de las jerarquías en la física de Feynman de un posteo anterior, donde Feynman decía que es un error pensar que uno puede partir de uno de los extremos (la física microscópica) y caminar solamente desde ese extremo hacia el otro (la física macroscópica), creyendo que de esa forma se alcanzará un entendimiento completo. En esta línea de pensamiento les aconsejo fuertemente leer también este genial artículo de 1972 de Philip Anderson:

En ese artículo el señor Anderson entre otras cosas dice lo siguiente:

The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe [...] At each stage entirely new laws, concepts, and generalizations are necessary, requiring inspiration and creativity to just as great a degree as in the previous one.

La intuición física de Feynman y de Anderson (y de muchos otros físicos) se adelantó a estos resultados más recientes y más formales. Vale aclarar que este artículo de Anderson a veces es mal interpretado. Anderson no dice que los sistemas extensos sigan nuevas leyes fundamentales, o que nuevas fuerzas fundamentales aparezcan como resultado de considerar sistemas con nuevas partículas. Pero sí dice que conocer las leyes fundamentales no es suficiente para con ellas reconstruir el universo en forma sistemática, y que al considerar cada aumento en la escala del sistema, es necesario realizar nueva investigación en física básica, e introducir nuevos conceptos, nuevas ideas y nuevas generalizaciones. Cada capa de la cebolla requiere aproximaciones nuevas, ideas ingeniosas, y mucha creatividad.

¿Y por qué el Señor Anderson insiste con esto? ¿Por qué lo hace? Porque elige hacerlo:


La semana que pasó

  • Primero: hay una versión notoriamente distinta del apunte acerca del problema 3 de la Guía 5, que trata sobre la función de partición canónica de N partículas idénticas no interactuantes. [Aquí].
  • Segundo: lecturas recomendadas para el cálculo de la masa de Chandrasekhar: el libro de Pathria y Beale y el libro de Huang. [Aquí] pueden bajar un apunte de clase, preparado el cuatrimestre pasado, pero inédito.
  • Por último: pueden leer sobre paramagnetismo de Pauli en casi cualquiera de los libros de la bibliografía. Pathria y Beale despachan rápidamente el resultado a temperatura cero y luego discuten el caso general y el de bajas temperaturas. [Aquí] pueden bajar un apunte de cursos pretéritos.
  • Finalmente: es probable que las notas de los parciales estén el lunes.

Apuntes de la clase de hoy

Los problemas de la Guía 5 que vimos hoy en la clase de práctica están pasados en limpio en los siguientes apuntes del cuatrimestre pasado (la numeración puede diferir):

  • Problema 1: paso de sumas a integrales para la función de partición canónica de una partícula en una caja.
  • Problema 3 [versión actualizada]: expansión en potencias del volumen de la función de partición canónica para N partículas indistinguibles en una caja. El límite clásico y la justificación del conteo no tan correcto de Boltzmann.
  • No exactamente el problema 4, pero relacionado. Función de partición gran canónica, funciones de Fermi-Dirac y más cosas que veremos en las próximas clases.

Guía 5 [actualizado]

El ensamble virtuoso

Radu Balescu, “Equilibrium and Nonequilibrium Statistical Mechanics”.

La explicación más razonable I

Richard Feynman, Nobel Lecture.

La explicación más razonable II

Arthur Schopenhauer, citado por Borges en “Otras Inquisiciones”.

Un doble

Edgar Allan Poe, William Wilson.

La Guía 5 puede bajarse [aquí].

Actualización: esta semana sólo hay clases prácticas, de 17 a 22.

Guardianes de la galaxia


Para cerrar los temas de la primera mitad de la materia, el posteo de hoy está dedicado a los cerebros de Boltzmann y su presencia ubicua en la cultura popular. Pueden leer este posteo mientras escuchan la banda de sonido de Guardianes de la Galaxia (ya se enterarán por qué es relevante en este tema).

El concepto de cerebros de Boltzmann se origina en un paper de Boltzmann de 1895 publicado en Nature, en el que Boltzmann defiende su teoría cinética de diversas críticas. Como vimos en clase y en un posteo previo, Boltzmann mostró que para un gas diluido una cantidad que llamó “H” (la entropía de Boltzmann) crece casi siempre hasta alcanzar un máximo. Esto llevó a que la gente se pregunte por qué el universo no se encuentra entonces en el estado más desordenado posible. La respuesta posible (y la primer respuesta que dió Boltzmann) es que el universo debe haber comenzado en un estado de muy baja entropía, y actualmente se encuentra evolucionando hacia un estado cada vez más desordenado y con mayor entropía. Pero la segunda respuesta posible (idea de un asistente de Boltzmann, el Dr. Schuetz) es la siguiente:

Supongamos que todo el universo está, y descansa para siempre, en equilibrio térmico. La probabilidad de que una (solo una) parte del universo se encuentre en un cierto estado, es menor cuanto más lejos esté este estado del equilibrio térmico. Pero esta probabilidad es mayor cuanto mayor es el universo. Si asumimos que el universo es lo suficientemente grande, podemos hacer que la probabilidad de que una parte relativamente pequeña del universo esté en cualquier estado (sin importar el estado de equilibrio) sea tan grande como queramos. También podemos aumentar la probabilidad de que, aunque todo el universo esté en equilibrio térmico, nuestro mundo esté en su estado actual.

Es decir, de la misma forma que la probabilidad de que todas las partículas de un gas en una habitación estén espontáneamente en una esquina de la habitación es muy baja pero no nula, también existe una probabilidad muy baja (pero no nula) de que en un estado de equilibrio térmico desordenado muy extenso, una fluctuación cree la Tierra con todos nosotros y tal como la vemos ahora. De la misma forma, una fluctuación también podría crear espontáneamente los libros de la Bibioteca de Babel de Borges, o los diálogos de una película de David Lynch.

Si una fluctuación (con muy baja probabilidad) podría hacer esto, ¿por qué no podemos imaginar otros microestados posibles? Como una forma de reducir al absurdo este segundo argumento de Boltzmann, se propuso entonces el concepto de los cerebros de Boltzmann: Una fluctuación podría generar espontáneamente un cerebro completo, flotando en el espacio, con todos sus falsos recuerdos de haber existido previamente. ¿Cómo sabemos que nosotros no somos cerebros de Boltzmann, y que actualmente no estamos decayendo hasta apagarnos en el baño térmico del universo?

El argumento en contra de esta idea fue desarrollado por Sir Arthur Eddington en 1931, y más tarde Richard Feynmann también lo consideró en sus Feynman Lectures. Feynman, luego de explicar que si fueramos una fluctuación del universo, al realizar mediciones en zonas que no observamos antes deberíamos ver un nivel de aleatoriedad diferente al que recordamos, concluye:

Por lo tanto, concluimos que el universo no es una fluctuación, y que el orden es un recuerdo de las condiciones cuando las cosas comenzaron. Esto no quiere decir que comprendamos la lógica de esto. Por alguna razón el universo tuvo una entropía muy baja inicialmente, y desde entonces la entropía ha aumentado. Así que ese es el camino hacia el futuro. Ese es el origen de toda irreversibilidad, eso es lo que hace que los procesos de crecimiento y decadencia, que nos hace recordar el pasado y no el futuro, nos recuerden las cosas que están más cerca de ese momento en la historia del universo cuando el orden era más alto que ahora, y por qué no podemos recordar cosas donde el desorden es más alto que ahora, al que llamamos el futuro.”

En años más recientes el concepto de cerebros de Boltzmann también se usó para reducir al absurdo algunas ideas en ciertas teorías cosmológicas. Y, extrañamente, apareció repetidas veces en la cultura popular. Como ejemplos, en Guardianes de la Galaxia vol. 2, Ego (el padre de Peter Quill, alias “Star-lord“) es un cerebro gigante en el espacio, creado al inicio de los tiempos:

Y en Futurama existe una raza de cerebros que flotan en el espacio, que fueron creados espontáneamente durante el Big Bang, y que tienen el poder de volver estúpida a la gente (excepto, obviamente, a los que ya son estúpidos):

La idea del asistente de Boltzmann, el Dr. Schuetz, hoy vuelve a tener interés en el estudio de sistemas estadísticos fuera del equilibrio: hoy sabemos que existen evoluciones posibles de estos sistemas en las que la entropía decrece (durante un tiempo acotado) en lugar de crecer. Pero también sabemos que la probabilidad de hallar al sistema evolucionando en esas condiciones es mucho menor que la probabilidad de que el sistema aumente su entropía. Y no solo eso, podemos calcular la probabilidad de que sucedan este tipo de eventos. Existen varias relaciones que permiten calcular la probabilidad de estos eventos; dos de ellas, que fueron verificadas experimentalmente en los últimos años y juegan un rol importante en el estudio de sistemas cuánticos abiertos, materia condensada, y otros sistemas fuera del equilibrio, son la igualdad de Jarzynski y el teorema de fluctuación de Crooks. Básicamente, estas relaciones nos dicen que la probabilidad de encontrar al sistema “desordenándose” en lugar “ordenándose” crece exponencialmente con el cambio de entropía (o de energía libre) en el sistema. Es decir, cuanto más cambie la entropía al evolucionar el sistema hacia el equilibrio, menos probable será encontrar al sistema evolucionando en la dirección contraria.