El dinero es un gas (ideal?)

En la página de la teórica ya están disponibles el video de la última clase, y los apuntes para la próxima clase.

La lírica de la canción que acompaña a este post, del disco The Dark Side of the Moon, tiene la memorable frase “Money, it’s a gas“. Y aparentemente no es solo una licencia poética. Los que tengan curiosidad sobre cómo se usan herramientas de mecánica estadística para el estudio de economía y finanzas pueden mirar este muy buen review:

Colloquium: Statistical mechanics of money, wealth and income

que fue publicado en Reviews of Modern Physics en 2009. El artículo es introductorio y explica varios de los conceptos que se usan comúnmente en el área de econofísica, incluyendo modelos estocásticos, cómo se usa el ensamble canónico (o de Gibbs), los vínculos asociados a la “conservación del dinero” o para sistemas en los que pueden existir deudas, y cómo esto resulta en diferentes equilibrios estadísticos. En particular, la Sección I, y la Sección II (desde la subsección A hasta la C) se leen fácilmente, y usan muchos de los conceptos que introdujimos hasta ahora en la materia. En particular, en las secciones II.B y II.C, los autores reemplazan el vínculo de la energía por un vínculo sobre el dinero total circulante, y vuelven a obtener la distribución de probabilidad del ensamble canónico, pero donde ahora la temperatura es reemplazada por el promedio de dinero que tiene cada individuo.

Este artículo tiene también un hallazgo interesante sobre la visión amplia que tenía Boltzmann, que más de 100 años atrás vislumbró la aplicabilidad de la mecánica estadística tanto en física como en otras áreas. En 1905 Boltzmann, hablando sobre la generalización y formalización de la mecánica estadística realizada por Gibbs, escribió:

Esto abre una perspectiva amplia, si no pensamos solamente en objetos mecánicos. Consideremos aplicar este método a la estadística de seres vivos, de la sociedad, en sociología, etc.”

Los que quieran mirar un ejemplo más reciente de este tipo de aplicaciones, pueden leer este artículo en Nature Communications sobre eventos extremos en sistemas macroeconómicos.

Guardianes de la galaxia

Ya están disponibles en la página de la teórica el video de la última clase y los apuntes para la próxima clase.

Por las redes sociales, Enzo Tagliazucchi me pidió un post sobre cerebros de Boltzmann. Y siempre hay que hacer lo que la gente pide en las redes sociales (¿qué puede malir sal?). Así que aquí va un breve resumen de cerebros de Boltzmann y su presencia ubicua en la cultura popular. Pueden leer este post mientras escuchan la banda de sonido de Guardianes de la Galaxia (ya se enterarán por qué es relevante en este tema).

El concepto de cerebros de Boltzmann se origina en un paper de Boltzmann de 1895 publicado en Nature, en el que Boltzmann defiende su teoría cinética de diversas críticas. Boltzmann mostró que para un gas diluido, una cantidad que llamó “H” (la entropía de Boltzmann) crecía siempre hasta alcanzar un máximo. Esto llevó a que la gente se pregunté por qué el universo no se encuentra entonces en el estado más desordenado posible. La respuesta posible (y la primer respuesta que da Boltzmann) es que el universo debe haber comenzado en un estado de muy baja entropía, y actualmente se encuentra evolucionando hacia un estado cada vez más desordenado y con mayor entropía. Pero la segunda respuesta posible (idea de un asistente de Boltzmann, el Dr. Schuetz) es la siguiente:

Supongamos que todo el universo está, y descansa para siempre, en equilibrio térmico. La probabilidad de que una (solo una) parte del universo se encuentre en un cierto estado, es menor cuanto más lejos esté este estado del equilibrio térmico. Pero esta probabilidad es mayor cuanto mayor es el universo. Si asumimos que el universo es lo suficientemente grande, podemos hacer que la probabilidad de que una parte relativamente pequeña del universo esté en cualquier estado (sin importar el estado de equilibrio) sea tan grande como queramos. También podemos aumentar la probabilidad de que, aunque todo el universo esté en equilibrio térmico, nuestro mundo esté en su estado actual.

Es decir, de la misma forma que la probabilidad de que todas las partículas de un gas en una habitación estén espontáneamente en una esquina de la habitación es muy baja pero no nula, también existe una probabilidad muy baja (pero no nula) de que en un estado de equilibrio térmico desordenado muy extenso, una fluctuación cree la Tierra con todos nosotros y tal como la vemos ahora. De la misma forma, una fluctuación también podría crear espontáneamente los libros de la Bibioteca de Babel de Borges, o los diálogos de una película de David Lynch.

Si una fluctuación (con muy baja probabilidad) podría hacer esto, ¿por qué no podemos imaginar otros microestados posibles? Como una forma de reducir al absurdo este segundo argumento de Boltzmann, se propuso entonces el concepto de los cerebros de Boltzmann: Una fluctuación podría generar espontáneamente un cerebro completo, flotando en el espacio, con todos sus falsos recuerdos de haber existido previamente. ¿Cómo sabemos que nosotros no somos cerebros de Boltzmann, y que actualmente no estamos descayendo hasta apagarnos en el baño térmico del universo?

El argumento en contra de esta idea fue desarrollado por Sir Arthur Eddington en 1931, y más tarde Richard Feynmann también lo consideró en sus Feynman Lectures. Luego de explicar que si fueramos una fluctuación del universo, al realizar mediciones en zonas que no observamos antes deberíamos ver un nivel de aleatoriedad diferente al que recordamos, concluye:

Por lo tanto, concluimos que el universo no es una fluctuación, y que el orden es un recuerdo de las condiciones cuando las cosas comenzaron. Esto no quiere decir que comprendamos la lógica de esto. Por alguna razón el universo tuvo una entropía muy baja inicialmente, y desde entonces la entropía ha aumentado. Así que ese es el camino hacia el futuro. Ese es el origen de toda irreversibilidad, eso es lo que hace que los procesos de crecimiento y decadencia, que nos hace recordar el pasado y no el futuro, nos recuerden las cosas que están más cerca de ese momento en la historia del universo cuando el orden era más alto que ahora, y por qué no podemos recordar cosas donde el desorden es más alto que ahora, al que llamamos el futuro.”

En años más recientes el concepto de cerebros de Boltzmann también se usó para reducir al absurdo algunas ideas en ciertas teorías cosmológicas. Y, extrañamente, apareció repetidas veces en la cultura popular. Como ejemplos, en Guardianes de la Galaxia vol. 2, Ego es un cerebro gigante en el espacio, creado al inicio de los tiempos:

Y en Futurama existe una raza de cerebros que flotan en el espacio, que fueron creados espotáneamente durante el Big Bang, y que tienen el poder de volver estúpida a la gente (excepto, obviamente, a los que ya son estúpidos):

El público se renueva

Ya están disponibles en la página de la teórica el último video del curso, los apuntes para la clase del miércoles, y material adicional.

En la última clase les prometí este video de Feynman, que siempre uso en todos mis cursos (lo que justifica la cita a la Chiqui Legrand en el título de este post). Como mencioné en clase, el objetivo principal de los ensambles estadísticos es construir una teoría microscópica que sea compatible con la termodinámica. Así, el enfoque se basa en encontrar cuales son las hipótesis más sencillas que nos llevan a estados de equilibrio compatibles con los de la termodinámica clásica. Relacionado con esto, en el video Richard Feynman explica su visión sobre cómo se construye una teoría. Alcanza con mirar el primer minuto.

En el video Feynman dice que la búsqueda de una nueva ley comienza “adivinándola” (“first, we guess it“). Luego se derivan consecuencias y predicciones a partir de esa ley “adivinada”, y se verifican las predicciones con experimentos. Y a continuación Feynman es categórico: “If it disagrees with experiments, it’s wrong. And that simple statement is the key to science. It doesn’t make a difference how beautiful your guess is, it doesn’t make a difference how smart you are, or who made the guess or what his name is, if it disagrees with experiments… it’s wrong.”.

Y si siguen mirando el video, van a conocer las opiniones de Feynman sobre los OVNIs, sobre otras ciencias, y sobre muchas otras cosas (todas relacionadas con el método científico).

Borges y la entropía de Shannon

Ya está disponible el video de la última clase teórica y los apuntes para la próxima clase.  Y ahora les presento una breve introducción a entropía y teoría de la información, para los que querían saber más sobre este tema:

“Este pensador observó que todos los libros, por diversos que sean, constan de elementos iguales: el espacio, el punto, la coma, las veintidós letras del alfabeto. También alegó un hecho que todos los viajeros han confirmado: No hay en la vasta Biblioteca, dos libros idénticos. De esas premisas incontrovertibles dedujo que la Biblioteca es total y que sus anaqueles registran todas las posibles combinaciones de los veintitantos símbolos ortográficos (número, aunque vastísimo, no infinito) o sea todo lo que es dable expresar: en todos los idiomas. Todo: la historia minuciosa del porvenir, las autobiografías de los arcángeles, el catálogo fiel de la Biblioteca, miles y miles de catálogos falsos, la demostración de la falacia de esos catálogos, la demostración de la falacia del catálogo verdadero, el evangelio gnóstico de Basilides, el comentario de ese evangelio, el comentario del comentario de ese evangelio, la relación verídica de tu muerte, la versión de cada libro a todas las lenguas, las interpolaciones de cada libro en todos los libros, el tratado que Beda pudo escribir (y no escribió) sobre la mitología de los sajones, los libros perdidos de Tácito.”

Jorge Luis Borges, La Biblioteca de Babel (1941).

En 1949, ocho años después que Borges publicase La Biblioteca de Babel, Claude Shannon publicó un trabajo en el que introdujo su famoso concepto de entropía de la información,

S = - Σ pi log pi.

En ese trabajo, aunque presentó una serie de teoremas con motivaciones plausibles, Shannon acepta que su principal motivación para usar una definición de este tipo, y en particular la función logaritmo, tiene que ver con que es práctica para lidiar con magnitudes medidas que pueden variar en órdenes de magnitud, con que vuelve ciertas operaciones con números grandes más fáciles de manejar, y con resultados previos en mecánica estadística como las definiciones de entropía de Boltzmann y de Gibbs (que veremos en las próximas clases). Shannon usó log2, pero nosotros usaremos el logaritmo natural porque será más natural para nuestra materia (¡plop!). En clase vimos como esta definición se relaciona con nociones de desorden o de interteza, y que para sucesos equiprobables se reduce a S = log(N), donde N es el número de sucesos posibles. Pero ¿cómo se relaciona esto con la noción de información?

Llamativamente, Borges se adelantó en su Biblioteca de Babel a esta pregunta. En otra parte del cuento escribe:

“El número de símbolos ortográficos es veinticinco. Esa comprobación permitió, hace trescientos años, formular una teoría general de la Biblioteca y resolver satisfactoriamente el problema que ninguna conjetura había descifrado: la naturaleza informe y caótica de casi todos los libros. Uno, que mi padre vio en un hexágono del circuito quince noventa y cuatro, constaba de las letras MCV perversamente repetidas desde el renglón primero hasta el último. Otro (muy consultado en esta zona) es un mero laberinto de letras, pero la página penúltima dice «Oh tiempo tus pirámides».”

Imaginemos, como Borges, un conjunto de símbolos ortográficos formado por 22 letras del alfabeto, mas el punto, la coma y el espacio (que marcaremos como “_”):

ABCDEFGHIKLMNOPQRSTVYZ.,_

Pensemos ahora que tenemos diferentes “emisores” que transmiten un mensaje usando estos símbolos. Como en el video de Los Simpsons (en un tema que está íntimamente relacionado con el cuento de Borges y el concepto de entropía de Shannon), pensemos que tenemos monos encadenados a máquinas de escribir, y que pueden escribir al azar textos de 50 símbolos en cada mensaje:

  1. El primer mono (M1) aprieta la letra A todas las veces: “AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA”.
  2. El segundo mono (M2) aprieta solo letras con equiprobabilidad, sin usar puntuación o espacios: “AYZTMOICPQERVILVVLMODNBEKSDEHGAHGALMKEYC”
  3. El tercer mono (M3) aprieta cualquiera de las 25 teclas con equiprobabilidad: “DH, EKHVOZ . EZVIASC B PIM,YICAK DELA.ALSFBZOQNY E”.
  4. El cuarto mono (M4) aprieta cualquier tecla con su probabilidad de uso en el español (por ejemplo, el espacio tiene una probabilidad de ocurrencia de ≈ 0.17, la letra “A” de ≈ 0.11, la “E” de ≈ 0.10, etc.): “EOS RILND . QNL PAE A ARDTEOS DCMAEE AMA”.
  5. El quinto mono (M5) tiene un vocabulario de 10 palabras, y usa las reglas de espaciado y puntuación del español. Su vocabulario es: CASA, PEPE, TUS, PESCA, EN, PIRAMIDES, DOS, OH, PARA y TIEMPO”. Usando solo esas palabras al azar, y el punto, la coma y el espacio, escribe: “DOS PESCA. TUS CASA PEPE, OH TIEMPO TUS PIRAMIDES.”

¿Cuánta información hay en cada mensaje? Para contestar esto, preguntémonos para qué emisor es más difícil predecir la ocurrencia de la siguiente letra, si nos llegasen sus mensajes de a una letra por vez (por ejemplo, por un telégrafo). En el primer caso, una vez que reconocimos el patrón, es fácil saber que la siguiente letra será una A. Cada nueva A no agrega entonces más información que la que ya teníamos (¡ya sabíamos que nos llegaría una A!). Es fácil también ver que el caso más difícil para predecir la ocurrencia de una nueva letra corresponde al del mono M3. Por otro lado, el mensaje de M5 parece más complicado, pero luego de recibir las letras “PES”, sabemos que solo pueden estar seguidas por “CA”. La entropía de Shannon mide esta noción de información, basada en la idea de que cuanto más difícil sea predecir la siguiente letra, más información nos aporta conocerla. Calculemos la entropía de cada emisor:

  1. S1 = ln 1 = 0
  2. S2 = ln 22 ≈ 3.091
  3. S3 = ln 25 ≈ 3.219
  4. S4 = -Σ pi ln pi ≈ 2.766
  5. La entropía S5 es más difícil de calcular, pero es menor a S4 y mayor a S1.

Hay otra forma interesante de pensar cuánta información genera el emisor, y es pensar cuánto podemos comprimir el mensaje que nos envía el emisor sin perder información. Para el primer mono nos alcanza con decir que envió 50 “A”. El mensaje de M3 lo podemos comprimir como “D PES. TU C PEP, O TI TU PIR.” (ya que “D” solo puede ser seguido por “OS”, “PES” por “CA”, “TU” por “S”, etc.).  En el mensaje de M3 no podemos sacar nada sin perder información. Un teorema famoso de Shannon nos dice que (para mensajes muy largos) la cota máxima a cuánto podemos comprimir el mensaje de un emisor sin perder información está relacionada con su entropía.

Los que quieran saber más pueden leer el paper original de Shannon:

A mathematical theory of communication

¿Quién quiere ser millonario?

 happy episode 8 season 20 mr. burns poker GIF

Ya están disponibles en la página de la teórica la clase de ayer y los apuntes para la clase del miércoles. Antes de pasar al intrigante tema de este post, dos avisos:

  • Les envié por mail nuevas credenciales para acceder a las clases en Zoom. No usen más el link anterior, en el mail que recibieron están las nuevas credenciales. Por favor no circulen esos datos. Si alguien no recibe el mail puede escribirme (pongan su nombre completo y libreta universitaria en el mensaje).
  • La facultad decidió que este cuatrimestre no habrá un período de reapertura de inscripciones. Los que no estén inscriptos en el sistema de inscripciones de la facultad deben enviarme un mail solicitando que tramite su inscripción. Por favor, envíen todos sus datos en el mail (nombre y apellido, libreta universitaria, o número de documento si son estudiantes de otra universidad).

Dicho esto, me imagino que todos quieren ser millonarios. ¡Pero seguro nunca se imaginaron que esta materia era la forma de alcanzar sus deseos! En la clase pasada comenzamos a ver probabilidades. Los temas que vimos se pueden usar para ganar en juegos de azar, y para ilustrar cómo, van dos historias.

La primer historia es la del método para ganar en la ruleta de Edward Thorp (también creador de métodos para contar cartas en el blackjack) y Claude Shannon (si, el mismo Shannon de la entropía que veremos en la próxima clase). Todos los juegos de azar en los casinos tienen esperanza negativa: si siguen jugando, a la larga solo pueden perder. En el caso de la ruleta, esto está relacionado con que un pleno (acertar a un número) paga 35 veces la apuesta, pero la probabilidad de acertar el número es 1/37 (pues la ruleta tiene 36 números más el cero). Así, en promedio, cada vez que apuestan pierden. El desafío es convertir la esperanza en positiva, es decir, saber con probabilidad mayor a 1/35 qué número va a salir. En el siguiente artículo Edward Thorp explica en detalle diversos métodos para ganar en la ruleta:

Los que quieran mas información sobre juegos de azar (y las siguientes entregas de estos artículos) pueden mirar la página web de Edward Thorp.

Básicamente existen tres tipos de métodos para la ruleta: (1) métodos matemáticos, (2) métodos basados en desperfectos de la ruleta, y (3) métodos predictivos basados en la física de la ruleta. Los primeros no son viables, ya que como mencioné arriba, los juegos de casino están diseñados para tener esperanza negativa. Al segundo método vamos a volver en un rato. El tercer camino es el que eligieron Thorp y Shannon.

En 1960 Thorp y Shannon usaron el hecho de que en los casinos se puede seguir apostando mientras la ruleta gira (y hasta que el crupier grita “¡No va más!”) para crear un algoritmo que basado en la velocidad de rotación de la ruleta, la velocidad de la bola, y su posición inicial, predice estadísticamente en que octante de la ruleta puede caer la bola. En espíritu (aunque no en los detalles) esto es parecido a lo que vimos la clase pasada en el problema del camino al azar: no podemos saber dónde terminará la bola, pero nos alcanza con conocer la probabilidad de dónde puede caer. Con esta información extra, la esperanza se vuelve positiva para el apostador. Pueden encontrar un artículo de divulgación con esta historia aquí:

Artículo sobre Edward Thorp en Engadget

Para realizar predicciones rápidas en el casino, Thorp y Shannon armaron una computadora pequeña, del tamaño de un atado de cigarrillos, que se llevaba con una faja en la cintura y se conectaba al zapato para ingresar los datos. Otra persona (el apostador) usaba un pequeño receptor y un auricular para obtener la predicción y realizar rápidamente una apuesta. ¡Lo mas interesante es que el método funciona! Thorp y Shannon lo usaron con cierto éxito en Las Vegas. Una década más tarde un grupo de estudiantes de California perfeccionaría el sistema reduciendo aún más las computadoras y escondiéndolas en zapatos (aquí pueden ver una imagen de las computadoras y encontrar algunos detalles sobre cómo funcionaban; el apostador ingresaba el período de rotación de la ruleta y el de la bola apretando un pulsador con el dedo del pie, y en otro zapato otra computadora devolvía la predicción del octante en el que caería la bola con una vibración). Todo esto además terminó siendo usado para el guión de un episodio de la serie original de Misión Imposible (1966), con un título insuperable:

Odds on evil

La segunda historia tiene que ver con el segundo método para ganar en la ruleta, basado en desperfectos de la ruleta, e involucra a un estudiante de doctorado de Richard Feynman. Alrededor de 1940, Albert Hibbs y Roy Walford acumularon datos de jugadas en casinos de Reno y Las Vegas, para identificar algún pequeño bias o desperfecto en las ruedas de ruleta que favoreciera estadísticamente a ciertos números. Usando los datos estadísticos obtenidos para cada ruleta, Hibbs y Walford ganaron 8300 dólares en un día (las ruletas actuales no tienen este nivel de imperfección, por lo que lamentablemente el método no es aplicable hoy). Pueden leer una historia sobre Hibbs y Walford aquí:

El método de Hibbs y Walford

Finalmente, les dejo un link a la famosa historia de la convención de físicos en Las Vegas que dió origen a la frase “They each brought one shirt and a ten-dollar bill, and changed neither”:

Cómo 4000 físicos le dieron a un casino de Las Vegas su peor semana

Nublado con chances de albóndigas

Ya está disponible en la página de la teórica el video de la última clase, y los apuntes (¡con material adicional!) para la clase del lunes próximo. En el Campus Virtual, Guillem y yo también cargamos algunas consultas de las teóricas y de la práctica que recibimos por mail, por si otros tienen las mismas dudas.

El material adicional es un notebook que usaremos la próxima clase para jugar con caminos al azar discretos. Antes de seguir las instrucciones, asegúrense estar conectados a sus cuentas de Google Drive en sus navegadores.

El notebook está disponible en este link. Apretando en el link, y conectados a su cuenta de Google:

  1. Arriba de un montón de texto, les va a aparecer “Abrir con (Open with) Google Colaboratory” o en su defecto solamente “Abrir con (Open with)”.
  2. Si les aparece “Abrir con (Open with)”, en “Conectar más apps (Connect more apps)”, busquen “colab” y conecten.
  3. Les va a aparecer entonces “Abrir con (Open with) Google Colaboratory”. Apreten ese botón.
  4. Para poder cambiar los números en el notebook y ejecutarlo, apreten “Abrir en modo ensayo (Open in playground)” arriba a la izquierda.
  5. Les va a decir que este notebook no fue creado por Google, pueden correrlo de todas formas (¡yo no les voy a robar sus datos!).

El notebook tiene instrucciones sobre cómo ejecutarlo, pero en la clase del lunes les voy a explicar en más detalle qué hace y cómo se usa (así que no se preocupen si nunca usaron algo parecido, o si no entienden lo que hace).

El título de este post (además de hacer referencia a una mala película con buena música), hace referencia a un tema que discutimos en la última clase: energía libre y formación de nubes (pero de gotas de agua, no de albóndigas). Para los que quieran leer un poco más, les dejo dos links:

  • Un link a un artículo sobre un laboratorio que estudia formación de gotas en nubes, y su suspensión por la convexión en la nube (¡con un video promocional!). Entre otras cosas, el artículo menciona el rol de partículas pequeñas suspendidas en el aire (aerosoles) para que se generen las gotas, algo que yo dije brevemente al final de la clase.
  • Un link a un coloquio de Edward Lorenz (¡el del atractor de Lorenz!), donde usa el concepto de energía libre para estimar cuán intensa puede ser la circulación global (el “viento medio”) en la atmósfera. No es el objetivo que entiendan los detalles, solo que (si están interesados) miren la introducción para ver cómo usa conceptos termodinámicos y ciclos energéticos para definir una “energía potencial disponible” para hacer trabajo.

Siempre hay una buena razón para citar a Feynman

Ya está disponible en la página de la teórica el siguiente material:

  • Los apuntes, el audio y el video de la primer clase.
  • Los apuntes de la clase de mañana (¡a pedido del público!).

No siempre voy a cumplir con los pedidos del público, no sea cosa que piensen que soy buena persona. Lo que les pido es que antes de cada teórica, aún si miran los apuntes para esa clase, también repasen los apuntes de la clase previa. Así en los primeros minutos podemos resolver cualquier duda que les haya quedado pendiente.

Aprovecho este aviso para decirles algo más sobre el espíritu de esta materia, inspirado en parte en este video de Richard Feynman:

En la clase de ayer les decía que en esta materia no vamos a demostrar ni a derivar la termodinámica. Esta materia es, en cierto sentido, una materia sobre jerarquías en la naturaleza. No siempre podemos derivar un comportamiento complejo como resultado directo de leyes fundamentales. Muchas, muchísimas veces, al trabajar con sistemas complejos o extensos necesitamos hacer aproximaciones, e introducir conceptos que (aunque tienen vínculos con las leyes fundamentales de la naturaleza) tienen sentido solo en forma aproximada (¡como el calor!). Justamente en este video, Feynman dice (minuto 0:22): “For example, at one end we have the fundamental laws of physics. Then we invent other terms for concepts which are approximate, which have, we believe, their ultimate explanation in terms of the fundamental laws. For instance, ‘heat’. Heat is supposed to be the jiggling, and the word for a hot thing is just the word for a mass of atoms which are jiggling.

Noten que Feynman no intenta convencernos de que hay una expresión formal y correcta para el calor en términos de leyes físicas fundamentales. Nos dice que el calor es un concepto aproximado para describir ciertos fenómenos en una escala macroscópica. Muchos conceptos en termodinámica son de este tipo: algunos podremos formalizarlos, para otros necesitaremos muchas aproximaciones. Y la descripción microscópica que construiremos será compatible (por diseño y construcción) con la termodinámica, porque si la violase construiriamos otra teoría microscópica. El enfoque de esta materia nos puede ayudar a entender ciertos sistemas físicos de otra forma, pero no se confundan y piensen que porque una teoría se deriva con más cuentas y trabajo es necesariamente mejor. Porque es imposible unir las dos descripciones (la macroscópica y la microscópica) sin hacer muchas aproximaciones en el medio, de forma tal que más que ser la segunda descripción más perfecta o formal, no podría existir si no comprendiésemos muy bien la primera.

Sobre este punto, en el video Feynman dice algo muy interesante, y que va contra la concepción simplista de la física que imagina que entender un fenómeno se reduce siempre a reducirlo a las leyes fundamentales que están detrás. En el video Feynman continúa hablando de sistemas cada vez mas complejos, y aproximaciones cada vez mayores. Y en el minuto 2:52 se pregunta: “Which end is nearer to the ultimate creator, if I may use a religious metaphor? Which end is nearer to God? Beauty and hope, or the fundamental laws? I think that the right way, of course, is to say that the whole structural interconnection of the thing is what we have to look at. [...] And so I do not think either end is nearer to God. To stand at either end, and to walk off that end of the pier only, hoping that out in that direction is the complete understanding, is a mistake.

En esta materia nos van a interesar sistemas extensos, para los que vamos a tener que hacer muchas aproximaciones. La elección de qué aproximaciones son razonables, y cuales no, serán el resultado de observar la naturaleza. No espero que respondamos la pregunta de Feynmann, pero sí espero que podamos encontrar interés en estudiar ambos extremos de las jerarquías de los sistemas físicos.

Winter is coming

Image result for jon snow

Les prometí que les iba a contar la historia de cómo John Snow podría salvarnos a todos del coronavirus. Pero antes tengo anuncios importantes:

  • En el Campus Virtual de Exactas ya está disponible el link, el nombre del aula y el password que vamos a usar para todas las clases teóricas con Zoom. Ingresen al campus virtual de la materia para tener acceso a la información. E instalen la aplicación de Zoom en sus computadoras o celulares antes del lunes a las 17 hs. Pueden ver el link, el nombre del aula, y el password (van a ser los mismos todas las clases) en “Avisos” dentro del campus virtual de la materia, o en el calendario del campus virtual.
  • Para poder ingresar a la página de la materia en el Campus Virtual de Exactas, deben auto-matricularse primero. Para eso, ingresen al Campus Virtual con su usuario (debería ser el DNI), y con el password que usan en el sistema de inscripciones. Busquen la materia Física Teórica 3 en el Departamento de Física, y luego sigan los pasos de auto-matriculación. La clave para auto-matricularse es “ft31c2020″.
  • Les pido que creen un usuario en Zoom con sus nombres, y que pongan una foto (decente) con sus caras en su perfil. También les voy a pedir que cuando se conecten el lunes lo hagan con sus micrófonos y cámaras apagadas. Sólo prendan los micrófonos para hacer preguntas (así ahorran ancho de banda y no tenemos eco).
  • En el Campus Virtual también subí bibliografía (vean la carpeta “Bibliografía”). Considerando las características remotas de este curso voy a tratar de seguir (y les aconsejo que lean) el libro de Pathria. Al inicio, para el repaso de termodinámica pueden mirar el inicio del libro de Huang, y el libro de Callen. Y para procesos estocásticos, los interesados pueden mirar los capítulos del tema en el libro de Reif.
  • Después de cada teórica voy a subir una grabación del curso, para que los que hayan tenido problemas de conectividad puedan ver la clase (también pueden volver a verla los que estén muy aburridos, o los quieran repasar algún tema). Y también voy a subir apuntes con los temas de cada clase.

Ahora sí, hablemos sobre estadística y John Snow. En 1854 John Snow salvó a Londres de un brote de cólera usando la estadística. (Pensaron que este post iba a ser sobre Jon Snow y Game of Thrones? Lo siento. Y va a ser aún mas aburrido, porque el Snow de esta historia no se revolcaba con aspirantes al trono de hierro). Y no solo salvó a Londres con la estadística, sino que por ese motivo es también considerado uno de los padres de la epidemiología moderna.

En esa época se pensaba que el cólera se transmitía por “miasmas” en el aire, que eran emitidos por material en descomposición y que enfermaban a quienes los respiraban. John Snow era médico en el Soho, y cuando se desató un brote de cólera desconfió de esta explicación. Sus vecinos lo acusaban de no saber nada (“You know nothing, John Snow”, ¡plop!), así que John Snow hizo el siguiente mapa con los casos de cólera que veía en el barrio:

Image result for John snow cholera map

Las barras negras son histogramas, y muestran el número de casos de cólera por casa (que estan sospechosamente distribuidos en forma preferencial alrededor de un punto). Snow también hizo estudios “doble ciego” usando que algunas casas usaban agua de una compañía y otras casas eran provistas con agua de otra empresa (y el número de enfermos en esas casas resultó ser diferente). Con estos datos, Snow concluyó que el cólera se debía contagiar por algún agente en el agua (Pasteur introduciría la idea de los gérmenes recién 7 años después), e identificó a la posible fuente de agua contaminada como una bomba de agua en la esquina de Broad Street y Cambridge Street (que, efectivamente, había entrado en contacto con un pozo ciego). Los interesados pueden leer mas detalles sobre esta historia acá.

Hoy la estadística se usa activamente para entender epidemias. Los modelos más sencillos de epidemias tienen compartimentos (para individuos Susceptibles, Infectados y Recuperados, o SIR), y son estocásticos. Vamos a ver modelos de este tipo cuando veamos caminatas al azar en las primeras clases. Estos modelos, en el límite termodinámico, tienden a ecuaciones diferenciales (más adelante también veremos cómo se obtiene el límite termodinámico de sistemas aleatorios) que describen bien la evolución de epidemias en poblaciones grandes. Y hoy, en el medio de la epidemia de coronavirus, todo el mundo habla de estos modelos. Los que quieran saber más sobre modelos epidemiológicos pueden ver esta página, o leer este capítulo de un libro.

Y los que se quedaron con ganas de juego de tronos, pueden seguir este link.