Parte 2

Cuadrados mínimos

¿Qué vamos a ver?

  • Motivación: extensión del promedio
  • Minimizacion de \(\chi^2\)
    • Lineal vs no lineal
    • Caso función constante
  • Errores sistemáticos
  • Evaluación de modelos:
    • \(R^2\)
    • \(\chi^2\)
    • residuos
  • Ejemplos

Motivación: extensión del promedio

  • Medimos dos variables \((x, y)\) relacionadas como \(y = Ax = 10x\)

  • Calculamos \(A = \frac{y}{x}\)

  • Si \(\sigma_x \ll 1\) \(\longrightarrow\) \(\sigma_A = \frac{\sigma_y}{x}\)

Table 1: Valores

(a) Reales
\(x\) \(y\) \(A\)
1 10 10
2 20 10
3 30 10
4 40 10
(b) Medidos
\(y_m\) \(A_m\)
12.0 12.0
17.4 8.7
30.4 10.1
39.4 9.8
(c) Errores
\(∆y_m\) \(∆A_m\)
1.0 1.0
1.0 0.5
1.0 0.3
1.0 0.2

¿Cómo juntamos los distintos \(A\)?

¿Promediamos?

Pero tienen distintos errores.

¡Por cuadrados mínimos!

Minimización de \(\chi^2\)

Dada una función \(f(x, p_0, \ldots, p_k)\), buscamos los parámetros \(p\) que minimicen:

\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \sum_i \left[\frac{r_i}{\sigma_i}\right]^2 \end{align} \]

donde \(r_i\) son los residuos.

Para ello, derivamos e igualamos a 0:

\[ 0 = \frac{\partial \chi^2}{\partial p_0} = \ldots = \frac{\partial \chi^2}{\partial p_k} \]

Mínimización de \(\chi^2\)

Hay dos casos, según si \(f\) es lineal en los parámetros.

Lineal: solución única

\[ f(x, A, B) = A \cos(x) + B \sin(x) \]

No lineal: múltiples soluciones.

\[ f(x, A, \phi) = A \cos(x + \phi) \]

Para funciones no lineales, hay que ayudar al algoritmo con parámetros iniciales.

\[ f(x, A, B, w) = A \cos(w x) + B \sin(w x) \]

Ejemplo: función constante

Supongamos que tenemos:

  • \(f(x) = A\), que no depende de \(x\),
  • errores iguales \(\sigma_i = \sigma\) para todo \(i\)

\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \frac{1}{\sigma^2} \sum_i \left[ y_i - A \right]^2 \end{align} \]

Minimizando: \[ \frac{\partial \chi^2}{\partial A} = 0 \]

obtenemos \[ A = \frac{1}{N} \sum_{i=1}^N y_i = \bar{y} \]

¡El promedio!

Si los \(\sigma_i\) son distintos,

obtenemos el promedio pesado.

Errores sistemáticos

Supongamos que el modelo es \(f(x) = Ax\).

Pero, cuando medimos:

x y A = y/x
1 2 2.00
2 3 1.50
3 4 1.33
9 10 1.11

Midiendo en función de una variable, podemos descubrir y corregir errores sistemáticos.

Ejemplo: plano inclinado

La aceleración \(a\) es función del ángulo \(\alpha\):

\[ a = a(\alpha) \]

¿Cuál es el ángulo \(\alpha\)? ¿Respecto de qué?

Es el ángulo entre el plano y la gravedad \(g\):

\[ a = g \cos(\alpha) \]

Medir respecto a la mesa \(\rightarrow\) posible error sistemático

Complejizando el modelo

Entonces, si la teoría era \(y=Ax\), ¿ajustamos \(y=Ax+B\) por las dudas?

  • Opción 1: Agrego \(B\) siempre, y veo si \(B=0\) (con su error \(\Delta B\)).
  • Opción 2: Agrego \(B\) solo si da mal el ajuste.

¿Por qué la opción 2 es mejor?

Agregar más parámetros, aumenta el error de los parámetros.

Si preferimos la opción 1, ¿por qué no agregar un termino cuadratico?

\[ y = Ax + B + Cx^2 \]

Empezar por lo más simple \(\rightarrow\) complejizar cuando haga falta.

Ejemplo: aceleración del carrito

¿Cuál es el modelo?

¿Necesitamos conocer \(t_0\) e \(y_0\)?

Podemos ajustar el modelo completo: \[ y = A (t-t_0)^2 + y_0 \]

y que lo estime a partir de los datos.

Si expandimos el cuadrado: \[ y = A \; \mathbf{t^2} + (- 2 A t_0) \; \mathbf{t} + (A t_0^2 + y_0) \]

podemos ajustar: \[ y = A \; \mathbf{t^2} + B \; \mathbf{t} + C \]

Evaluando un modelo (con datos)

Hay distintas medidas:

  • \(R^2 = 1 - \frac{\sigma_r^2}{\sigma_{y}^2}\)

    ¿cuánto explica el modelo la variación en los datos?

  • \(\chi^2 = \sum \left[\frac{y_i - f(x_i)}{\sigma_{y_i}}\right]^2\)

    ¿los datos se apartan lo esperado del modelo?

  • Aleatoriedad en los residuos

    no esperamos ver estructura en el modelo

Aleatoriedad en los residuos

¿Por qué?

Ejemplo: usando \(R^2\)

Tengo 3 conjuntos de mediciones y ajusto por \(y=Ax+B\)

¿Ajustaron bien?

¿Es importante esa pequeña diferencia?

Depende para que lo quieran usar.

  • \(R^2\) no dice si ajustó bien.
  • Residuos mal \(\rightarrow\) parámetro mal.

Ejemplo: \(\chi^2\)

Tengo un conjunto de datos \(y = 1.0 \, x + 0.2 \, x^2\) y le ajusto \(y = Ax + B\)

\(\chi^2\) falla si tenemos mal los errores

En resumen

Para evaluar un ajuste, mirar los residuos:

  • la aleatoriedad es lo más seguro, aunque requiere más mediciones
  • la distancia (\(\chi^2\)) también sirve, pero puede fallar si tenemos mal los errores
  • el \(R^2\) no les dice si el modelo está mal

Resumen

  • Cuadrdados mínimos: “extensión del promedio”
  • Modelo a ajustar:
    • Lineal (en los parámetros) \(\rightarrow\) solución única
    • No lineal \(\rightarrow\) necesita parámetros iniciales
  • Elección del modelo:
    • Simple \(\rightarrow\) complejo
    • Corregir errores sistemáticos
    • Hay que pensar en el experimento
  • Evaluación del ajuste:
    • Aleatoriedad de residuos
    • Distancia de residuos (\(\chi^2\))
    • \(R^2\) no nos dice si ajustó mal