Cuadrados mínimos

Cuadrados mínimos

¿Qué vamos a ver?

  • Evaluación de modelos
    • Residuos, \(\chi^2\), y \(R^2\)
    • Ejemplos
  • Minimizacion de \(\chi^2\)
    • Lineal vs no lineal
    • Caso función constante
  • ¿Por qué usamos cuadrados mínimos?
    • Extensión del promedio
    • Descubrir y eliminar errores sistemáticos
  • Ejemplos

Evaluando un modelo (con datos)

Vimos dos medidas:

\[ R^2 = 1 - \frac{\sigma_r^2}{\sigma_{y}^2} \]

\[ \chi^2 = \sum \left[\frac{y_i - f(x_i)}{\sigma_{y_i}}\right]^2 \]

Evaluamos: distancia: (\(\chi^2\)) y signo (aleatoriedad)

\(\leftarrow\) más fácil acá

¿Por qué aleatoriedad?

Aleatoriedad:

más fácil con

más mediciones

¿Y \(R^2\)?

Ejemplo: usando \(R^2\)

Tengo 3 conjuntos de mediciones y ajusto por \(y=Ax+B\)

¿Ajustaron bien?

¿Es importante esa pequeña diferencia?

Depende para que lo quieran usar.

  • \(R^2\) no dice si ajustó bien.
  • Residuos mal \(\rightarrow\) parámetro mal.

Ejemplo: \(\chi^2\)

Tengo un conjunto de datos \(y = 1.0 \, x + 0.2 \, x^2\) y le ajusto \(y = Ax + B\)

\(\chi^2\) falla si tenemos mal los errores

En resumen

Para evaluar un ajuste, mirar los residuos:

  • la aleatoriedad es lo más seguro.
  • la distancia (\(\chi^2\)) también sirve, pero puede fallar.

Cuadrados mínimos

¿Cómo y por qué lo usamos?

Minimización de \(\chi^2\)

Dada una función \(f(x, p_0, \ldots, p_k)\), buscamos los parámetros \(p\) que minimicen:

\[ \chi^2 = \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 = \sum_i \left[\frac{r_i}{\sigma_i}\right]^2 \]

Para ello, derivamos e igualamos a 0:

\[ 0 = \frac{\partial \chi^2}{\partial p_0} = \ldots = \frac{\partial \chi^2}{\partial p_k} \]

Hay dos casos, según si \(f\) es lineal en los parámetros.

En el caso no lineal, tenemos que ayudar al algoritmo con parámetros iniciales.

No lineal:

\(f(x, A, \phi) = A \cos(x + \phi)\)

Lineal:

\(f(x, A, B) = A \cos(x) + B \sin(x)\)

Función constante

Supongamos que tenemos:

  • modelo constante \(f(x) = A\), que no depende de \(x\),
  • errores iguales \(\sigma_i = \sigma\) para todo \(i\)

\[ \chi^2 = \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 = \frac{1}{\sigma^2} \sum_i \left[ y_i - A \right]^2 \]

Si minimizamos \[ \frac{\partial \chi^2}{\partial A} = 0 \]

obtenemos \[ A = \frac{1}{N} \sum_{i=1}^N y_i = \bar{y} \]

¡El promedio!

Si los \(\sigma_i\) son distintos,

obtenemos el promedio pesado.

Extensión del promedio

Supongamos que el modelo es \(f(x) = Ax\).

\(x\) \(y\) \(\Delta y\)
1 2 1
2 4 1
3 6 1
N 2N 1

¿Cómo calculamos \(A\)?

Opción: despejando.

\(A = y / x\) \(\Delta A\)
2 1
2 1/2
2 1/3
2 1/N

¿Cómo juntamos esos valores de \(A\)?

Opción 1:

Promedio

\[ \frac{A_1 + A_2 + \ldots}{N} \]

Opción 2:

Promedio pesado

\[ \frac{w_1 A_1 + w_2 A_2 + \ldots}{N} \]

Opción 3:

cuadrados mínimos

\[ \chi^2 = \ldots \]

Cuadrados mínimos va hacer “un promedio ponderado”.

Errores sistemáticos

Supongamos que el modelo es \(f(x) = Ax\).

Pero, cuando medimos:

x y A = y/x
1 2 2.00
2 3 1.50
3 4 1.33
4 5 1.25
5 6 1.20
9 10 1.11

Podemos descubrir y corregir errores sistemáticos.

Complejizando el modelo

Entonces, si la teoría era \(y=Ax\), ¿ajustamos \(y=Ax+B\) por las dudas?

  • Opción 1: Agrego \(B\) siempre, y veo si \(B=0\) (con su error \(\Delta B\)).
  • Opción 2: Agrego \(B\) solo si da mal el ajuste (residuos).

¿Por qué la opción 2 es mejor?

Agregar más parámetros, aumenta el error de los parámetros.

Si preferimos la opción 1, ¿por qué no agregar un termino cuadratico?

\[ y = Ax + B + Cx^2 \]

Empezar por lo más simple \(\rightarrow\) complejizar cuando haga falta.

Ejemplo: aceleración del carrito

¿Cuál es el modelo?

¿Necesitamos conocer \(t_0\) e \(y_0\)?

Podemos ajustar el modelo completo: \[ y = A (t-t_0)^2 + y_0 \]

y que lo estime a partir de los datos.

Si expandimos el cuadrado: \[ y = A \; \mathbf{t^2} + (- 2 A t_0) \; \mathbf{t} + (A t_0^2 + y_0) \]

podemos ajustar: \[ y = A \; \mathbf{t^2} + B \; \mathbf{t} + C \]

Ejemplo: péndulo

\[ T^2 = \frac{(2\pi)^2}{g} L = A L\]

\[ T = \frac{2\pi}{\sqrt{g}} \sqrt{L} = A \sqrt{L} \]

Si tenemos un error sistemåtico \(L_0\) constante en \(L\)

\[ T^2 = \frac{(2\pi)^2}{g} (L - L_0) \]

\[ T = \frac{2\pi}{\sqrt{g}} \sqrt{L - L_0} \]

Es equivalente a: \[ T^2 = A L + B \]

NO es equivalente a: \[ T = A \sqrt{L} + B \]

¡Hay que modelar el experimento!

Resumen

  • Cuadrdados mínimos: “extensión del promedio”
  • Modelo a ajustar:
    • Lineal (en los parámetros) \(\rightarrow\) solución única
    • No lineal \(\rightarrow\) parámetros iniciales
  • Elección del modelo:
    • Simple \(\rightarrow\) complejo
    • Hay que pensar en el experimento
  • Evaluación del ajuste:
    • Aleatoriedad de residuos
    • Distancia de residuos (\(\chi^2\))

Si el modelo ajusta mal, los parámetros están mal.

Ejemplo: aceleración del carrito

¿Podemos estimar \(t_0\) directamente como una de las mediciones?