Guía 1, segunda sesión de repaso

Recién subimos a la pestaña Práctica el segundo (y último) video de repaso de la guía 1. En este video respondemos a dos de las consultas que surgieron durante la semana, hacemos un breve comentario sobre sistemas magnéticos y resortes y finalmente respondemos a las preguntas que dejé abiertas en la resolución del problema 9. El material de repaso que subiremos la semana que viene ya va a ser sobre la guía 2.

El público se renueva

Ya están disponibles en la página de la teórica el último video del curso, los apuntes para la clase del miércoles, y material adicional.

En la última clase les prometí este video de Feynman, que siempre uso en todos mis cursos (lo que justifica la cita a la Chiqui Legrand en el título de este post). Como mencioné en clase, el objetivo principal de los ensambles estadísticos es construir una teoría microscópica que sea compatible con la termodinámica. Así, el enfoque se basa en encontrar cuales son las hipótesis más sencillas que nos llevan a estados de equilibrio compatibles con los de la termodinámica clásica. Relacionado con esto, en el video Richard Feynman explica su visión sobre cómo se construye una teoría. Alcanza con mirar el primer minuto.

En el video Feynman dice que la búsqueda de una nueva ley comienza “adivinándola” (“first, we guess it“). Luego se derivan consecuencias y predicciones a partir de esa ley “adivinada”, y se verifican las predicciones con experimentos. Y a continuación Feynman es categórico: “If it disagrees with experiments, it’s wrong. And that simple statement is the key to science. It doesn’t make a difference how beautiful your guess is, it doesn’t make a difference how smart you are, or who made the guess or what his name is, if it disagrees with experiments… it’s wrong.”.

Y si siguen mirando el video, van a conocer las opiniones de Feynman sobre los OVNIs, sobre otras ciencias, y sobre muchas otras cosas (todas relacionadas con el método científico).

Guía 2, semana 1

Recién subimos a la pestaña Práctica la primera parte del material para la guía 2: un repaso teórico, los ejercicios 1-6, 7, 9 y 11 resueltos y material adicional sobre combinatoria. Para esta semana, convendría que hagan la primera parte de la guía, digamos hasta el problema 11, y si tienen ganas empiecen a aventurarse con los problemas 12, 13 y 14, que son muy divertidos. Recomiendo mucho que traten de hacer todos estos problemas primero por su cuenta, y recién después se fijen en los resueltos que subimos.

Breve historia de la termodinámica

La termodinámica, tal como la conocemos ahora, es más reciente de lo que parece. Aún en 1840, se creía que el calor era un fluido que todos los cuerpos contienen y pueden intercambiar (el calórico, idea propuesta por Lavoisier en 1787). No fue hasta la década de 1840 que Joule y Helmholtz desterraron esta idea formulando el primer principio. El segundo principio, obra de William Thomson (más conocido como Lord Kelvin) y Rudolph Clausius, tardó otros 20 años en llegar. En la sección 4.3.5 de estas notas tienen una brevísima (un par de páginas), amena y divertida introducción a la historia de la termodinámica. ¡Disfrútenla! El cuadro, obra del famoso pintor neoclásico Jacques-Louis David, representa a Lavoisier y su esposa.

Borges y la entropía de Shannon

Ya está disponible el video de la última clase teórica y los apuntes para la próxima clase.  Y ahora les presento una breve introducción a entropía y teoría de la información, para los que querían saber más sobre este tema:

“Este pensador observó que todos los libros, por diversos que sean, constan de elementos iguales: el espacio, el punto, la coma, las veintidós letras del alfabeto. También alegó un hecho que todos los viajeros han confirmado: No hay en la vasta Biblioteca, dos libros idénticos. De esas premisas incontrovertibles dedujo que la Biblioteca es total y que sus anaqueles registran todas las posibles combinaciones de los veintitantos símbolos ortográficos (número, aunque vastísimo, no infinito) o sea todo lo que es dable expresar: en todos los idiomas. Todo: la historia minuciosa del porvenir, las autobiografías de los arcángeles, el catálogo fiel de la Biblioteca, miles y miles de catálogos falsos, la demostración de la falacia de esos catálogos, la demostración de la falacia del catálogo verdadero, el evangelio gnóstico de Basilides, el comentario de ese evangelio, el comentario del comentario de ese evangelio, la relación verídica de tu muerte, la versión de cada libro a todas las lenguas, las interpolaciones de cada libro en todos los libros, el tratado que Beda pudo escribir (y no escribió) sobre la mitología de los sajones, los libros perdidos de Tácito.”

Jorge Luis Borges, La Biblioteca de Babel (1941).

En 1949, ocho años después que Borges publicase La Biblioteca de Babel, Claude Shannon publicó un trabajo en el que introdujo su famoso concepto de entropía de la información,

S = - Σ pi log pi.

En ese trabajo, aunque presentó una serie de teoremas con motivaciones plausibles, Shannon acepta que su principal motivación para usar una definición de este tipo, y en particular la función logaritmo, tiene que ver con que es práctica para lidiar con magnitudes medidas que pueden variar en órdenes de magnitud, con que vuelve ciertas operaciones con números grandes más fáciles de manejar, y con resultados previos en mecánica estadística como las definiciones de entropía de Boltzmann y de Gibbs (que veremos en las próximas clases). Shannon usó log2, pero nosotros usaremos el logaritmo natural porque será más natural para nuestra materia (¡plop!). En clase vimos como esta definición se relaciona con nociones de desorden o de interteza, y que para sucesos equiprobables se reduce a S = log(N), donde N es el número de sucesos posibles. Pero ¿cómo se relaciona esto con la noción de información?

Llamativamente, Borges se adelantó en su Biblioteca de Babel a esta pregunta. En otra parte del cuento escribe:

“El número de símbolos ortográficos es veinticinco. Esa comprobación permitió, hace trescientos años, formular una teoría general de la Biblioteca y resolver satisfactoriamente el problema que ninguna conjetura había descifrado: la naturaleza informe y caótica de casi todos los libros. Uno, que mi padre vio en un hexágono del circuito quince noventa y cuatro, constaba de las letras MCV perversamente repetidas desde el renglón primero hasta el último. Otro (muy consultado en esta zona) es un mero laberinto de letras, pero la página penúltima dice «Oh tiempo tus pirámides».”

Imaginemos, como Borges, un conjunto de símbolos ortográficos formado por 22 letras del alfabeto, mas el punto, la coma y el espacio (que marcaremos como “_”):

ABCDEFGHIKLMNOPQRSTVYZ.,_

Pensemos ahora que tenemos diferentes “emisores” que transmiten un mensaje usando estos símbolos. Como en el video de Los Simpsons (en un tema que está íntimamente relacionado con el cuento de Borges y el concepto de entropía de Shannon), pensemos que tenemos monos encadenados a máquinas de escribir, y que pueden escribir al azar textos de 50 símbolos en cada mensaje:

  1. El primer mono (M1) aprieta la letra A todas las veces: “AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA”.
  2. El segundo mono (M2) aprieta solo letras con equiprobabilidad, sin usar puntuación o espacios: “AYZTMOICPQERVILVVLMODNBEKSDEHGAHGALMKEYC”
  3. El tercer mono (M3) aprieta cualquiera de las 25 teclas con equiprobabilidad: “DH, EKHVOZ . EZVIASC B PIM,YICAK DELA.ALSFBZOQNY E”.
  4. El cuarto mono (M4) aprieta cualquier tecla con su probabilidad de uso en el español (por ejemplo, el espacio tiene una probabilidad de ocurrencia de ≈ 0.17, la letra “A” de ≈ 0.11, la “E” de ≈ 0.10, etc.): “EOS RILND . QNL PAE A ARDTEOS DCMAEE AMA”.
  5. El quinto mono (M5) tiene un vocabulario de 10 palabras, y usa las reglas de espaciado y puntuación del español. Su vocabulario es: CASA, PEPE, TUS, PESCA, EN, PIRAMIDES, DOS, OH, PARA y TIEMPO”. Usando solo esas palabras al azar, y el punto, la coma y el espacio, escribe: “DOS PESCA. TUS CASA PEPE, OH TIEMPO TUS PIRAMIDES.”

¿Cuánta información hay en cada mensaje? Para contestar esto, preguntémonos para qué emisor es más difícil predecir la ocurrencia de la siguiente letra, si nos llegasen sus mensajes de a una letra por vez (por ejemplo, por un telégrafo). En el primer caso, una vez que reconocimos el patrón, es fácil saber que la siguiente letra será una A. Cada nueva A no agrega entonces más información que la que ya teníamos (¡ya sabíamos que nos llegaría una A!). Es fácil también ver que el caso más difícil para predecir la ocurrencia de una nueva letra corresponde al del mono M3. Por otro lado, el mensaje de M5 parece más complicado, pero luego de recibir las letras “PES”, sabemos que solo pueden estar seguidas por “CA”. La entropía de Shannon mide esta noción de información, basada en la idea de que cuanto más difícil sea predecir la siguiente letra, más información nos aporta conocerla. Calculemos la entropía de cada emisor:

  1. S1 = ln 1 = 0
  2. S2 = ln 22 ≈ 3.091
  3. S3 = ln 25 ≈ 3.219
  4. S4 = -Σ pi ln pi ≈ 2.766
  5. La entropía S5 es más difícil de calcular, pero es menor a S4 y mayor a S1.

Hay otra forma interesante de pensar cuánta información genera el emisor, y es pensar cuánto podemos comprimir el mensaje que nos envía el emisor sin perder información. Para el primer mono nos alcanza con decir que envió 50 “A”. El mensaje de M3 lo podemos comprimir como “D PES. TU C PEP, O TI TU PIR.” (ya que “D” solo puede ser seguido por “OS”, “PES” por “CA”, “TU” por “S”, etc.).  En el mensaje de M3 no podemos sacar nada sin perder información. Un teorema famoso de Shannon nos dice que (para mensajes muy largos) la cota máxima a cuánto podemos comprimir el mensaje de un emisor sin perder información está relacionada con su entropía.

Los que quieran saber más pueden leer el paper original de Shannon:

A mathematical theory of communication

Guía 1, primera sesión de repaso

Recién subimos a la pestaña Práctica un video de repaso de la guía 1. Dado que las consultas de esta semana han sido bastante puntuales y ya han sido respondidas de manera exhaustiva en el foro y los mails, hemos optado por resolver el problema de la derivada horrible, que posteamos en esta misma página la semana pasada. De paso, también resolvemos el problema 6 (propiedades de derivadas), porque los resultados de ese problema nos hacen falta para el de la derivada horrible. Esperamos que les sirva!

¿Quién quiere ser millonario?

 happy episode 8 season 20 mr. burns poker GIF

Ya están disponibles en la página de la teórica la clase de ayer y los apuntes para la clase del miércoles. Antes de pasar al intrigante tema de este post, dos avisos:

  • Les envié por mail nuevas credenciales para acceder a las clases en Zoom. No usen más el link anterior, en el mail que recibieron están las nuevas credenciales. Por favor no circulen esos datos. Si alguien no recibe el mail puede escribirme (pongan su nombre completo y libreta universitaria en el mensaje).
  • La facultad decidió que este cuatrimestre no habrá un período de reapertura de inscripciones. Los que no estén inscriptos en el sistema de inscripciones de la facultad deben enviarme un mail solicitando que tramite su inscripción. Por favor, envíen todos sus datos en el mail (nombre y apellido, libreta universitaria, o número de documento si son estudiantes de otra universidad).

Dicho esto, me imagino que todos quieren ser millonarios. ¡Pero seguro nunca se imaginaron que esta materia era la forma de alcanzar sus deseos! En la clase pasada comenzamos a ver probabilidades. Los temas que vimos se pueden usar para ganar en juegos de azar, y para ilustrar cómo, van dos historias.

La primer historia es la del método para ganar en la ruleta de Edward Thorp (también creador de métodos para contar cartas en el blackjack) y Claude Shannon (si, el mismo Shannon de la entropía que veremos en la próxima clase). Todos los juegos de azar en los casinos tienen esperanza negativa: si siguen jugando, a la larga solo pueden perder. En el caso de la ruleta, esto está relacionado con que un pleno (acertar a un número) paga 35 veces la apuesta, pero la probabilidad de acertar el número es 1/37 (pues la ruleta tiene 36 números más el cero). Así, en promedio, cada vez que apuestan pierden. El desafío es convertir la esperanza en positiva, es decir, saber con probabilidad mayor a 1/35 qué número va a salir. En el siguiente artículo Edward Thorp explica en detalle diversos métodos para ganar en la ruleta:

Los que quieran mas información sobre juegos de azar (y las siguientes entregas de estos artículos) pueden mirar la página web de Edward Thorp.

Básicamente existen tres tipos de métodos para la ruleta: (1) métodos matemáticos, (2) métodos basados en desperfectos de la ruleta, y (3) métodos predictivos basados en la física de la ruleta. Los primeros no son viables, ya que como mencioné arriba, los juegos de casino están diseñados para tener esperanza negativa. Al segundo método vamos a volver en un rato. El tercer camino es el que eligieron Thorp y Shannon.

En 1960 Thorp y Shannon usaron el hecho de que en los casinos se puede seguir apostando mientras la ruleta gira (y hasta que el crupier grita “¡No va más!”) para crear un algoritmo que basado en la velocidad de rotación de la ruleta, la velocidad de la bola, y su posición inicial, predice estadísticamente en que octante de la ruleta puede caer la bola. En espíritu (aunque no en los detalles) esto es parecido a lo que vimos la clase pasada en el problema del camino al azar: no podemos saber dónde terminará la bola, pero nos alcanza con conocer la probabilidad de dónde puede caer. Con esta información extra, la esperanza se vuelve positiva para el apostador. Pueden encontrar un artículo de divulgación con esta historia aquí:

Artículo sobre Edward Thorp en Engadget

Para realizar predicciones rápidas en el casino, Thorp y Shannon armaron una computadora pequeña, del tamaño de un atado de cigarrillos, que se llevaba con una faja en la cintura y se conectaba al zapato para ingresar los datos. Otra persona (el apostador) usaba un pequeño receptor y un auricular para obtener la predicción y realizar rápidamente una apuesta. ¡Lo mas interesante es que el método funciona! Thorp y Shannon lo usaron con cierto éxito en Las Vegas. Una década más tarde un grupo de estudiantes de California perfeccionaría el sistema reduciendo aún más las computadoras y escondiéndolas en zapatos (aquí pueden ver una imagen de las computadoras y encontrar algunos detalles sobre cómo funcionaban; el apostador ingresaba el período de rotación de la ruleta y el de la bola apretando un pulsador con el dedo del pie, y en otro zapato otra computadora devolvía la predicción del octante en el que caería la bola con una vibración). Todo esto además terminó siendo usado para el guión de un episodio de la serie original de Misión Imposible (1966), con un título insuperable:

Odds on evil

La segunda historia tiene que ver con el segundo método para ganar en la ruleta, basado en desperfectos de la ruleta, e involucra a un estudiante de doctorado de Richard Feynman. Alrededor de 1940, Albert Hibbs y Roy Walford acumularon datos de jugadas en casinos de Reno y Las Vegas, para identificar algún pequeño bias o desperfecto en las ruedas de ruleta que favoreciera estadísticamente a ciertos números. Usando los datos estadísticos obtenidos para cada ruleta, Hibbs y Walford ganaron 8300 dólares en un día (las ruletas actuales no tienen este nivel de imperfección, por lo que lamentablemente el método no es aplicable hoy). Pueden leer una historia sobre Hibbs y Walford aquí:

El método de Hibbs y Walford

Finalmente, les dejo un link a la famosa historia de la convención de físicos en Las Vegas que dió origen a la frase “They each brought one shirt and a ten-dollar bill, and changed neither”:

Cómo 4000 físicos le dieron a un casino de Las Vegas su peor semana

Guía 1, semana 2

Seguimos con la práctica. Hemos subido tres ejercicios resueltos más y un apunte adicional sobre termodinámica de medios magnéticos, que encontrarán en la pestaña Práctica. Esta semana convendría que terminen de hacer la guía 1 (la semana que viene ya empezamos con la 2). Cualquier duda, consulten! Este miércoles subiremos un video de repaso sobre alguno de los temas que aparecieron en las consultas, si tienen ganas de que hablemos de algo en particular díganlo!

Horror y derivadas

Después de resolver los problemas 7 y 8 de la guía 1, les sugiero que se aventuren con este problema, que aparece en el libro An Introduction to Statistical Mechanics and Thermodynamics, de R.H. Swendsen.

Como se apunta en los resueltos que subimos, hay un método sistemático para expresar derivadas como ésta en términos de cantidades fácilmente medibles en el laboratorio. El método está explicado en la sección 7.3 del libro de Callen.

Gracias a Juan Zanella por esta y otras muchas ideas.

Nublado con chances de albóndigas

Ya está disponible en la página de la teórica el video de la última clase, y los apuntes (¡con material adicional!) para la clase del lunes próximo. En el Campus Virtual, Guillem y yo también cargamos algunas consultas de las teóricas y de la práctica que recibimos por mail, por si otros tienen las mismas dudas.

El material adicional es un notebook que usaremos la próxima clase para jugar con caminos al azar discretos. Antes de seguir las instrucciones, asegúrense estar conectados a sus cuentas de Google Drive en sus navegadores.

El notebook está disponible en este link. Apretando en el link, y conectados a su cuenta de Google:

  1. Arriba de un montón de texto, les va a aparecer “Abrir con (Open with) Google Colaboratory” o en su defecto solamente “Abrir con (Open with)”.
  2. Si les aparece “Abrir con (Open with)”, en “Conectar más apps (Connect more apps)”, busquen “colab” y conecten.
  3. Les va a aparecer entonces “Abrir con (Open with) Google Colaboratory”. Apreten ese botón.
  4. Para poder cambiar los números en el notebook y ejecutarlo, apreten “Abrir en modo ensayo (Open in playground)” arriba a la izquierda.
  5. Les va a decir que este notebook no fue creado por Google, pueden correrlo de todas formas (¡yo no les voy a robar sus datos!).

El notebook tiene instrucciones sobre cómo ejecutarlo, pero en la clase del lunes les voy a explicar en más detalle qué hace y cómo se usa (así que no se preocupen si nunca usaron algo parecido, o si no entienden lo que hace).

El título de este post (además de hacer referencia a una mala película con buena música), hace referencia a un tema que discutimos en la última clase: energía libre y formación de nubes (pero de gotas de agua, no de albóndigas). Para los que quieran leer un poco más, les dejo dos links:

  • Un link a un artículo sobre un laboratorio que estudia formación de gotas en nubes, y su suspensión por la convexión en la nube (¡con un video promocional!). Entre otras cosas, el artículo menciona el rol de partículas pequeñas suspendidas en el aire (aerosoles) para que se generen las gotas, algo que yo dije brevemente al final de la clase.
  • Un link a un coloquio de Edward Lorenz (¡el del atractor de Lorenz!), donde usa el concepto de energía libre para estimar cuán intensa puede ser la circulación global (el “viento medio”) en la atmósfera. No es el objetivo que entiendan los detalles, solo que (si están interesados) miren la introducción para ver cómo usa conceptos termodinámicos y ciclos energéticos para definir una “energía potencial disponible” para hacer trabajo.