Parte 2

Cuadrados mínimos

¿Qué vamos a ver?

  • Motivación: extensión del promedio
  • Minimizacion de \(\chi^2\)
    • Lineal vs no lineal
    • Caso función constante
  • Errores sistemáticos
  • Evaluación de modelos:
    • \(R^2\)
    • \(\chi^2\)
    • residuos
  • Ejemplos

Motivación: extensión del promedio

  • Medimos dos variables \((x, y)\) relacionadas como \(y = Ax = 10x\)

  • Calculamos \(A = \frac{y}{x}\)

  • Si \(\sigma_x \ll 1\) \(\longrightarrow\) \(\sigma_A = \frac{\sigma_y}{x}\)

Table 1: Valores

(a) Reales
\(x\) \(y\) \(A\)
1 10 10
2 20 10
3 30 10
4 40 10
(b) Medidos
\(y_m\) \(A_m\)
12.0 12.0
17.4 8.7
30.4 10.1
39.4 9.8
(c) Errores
\(∆y_m\) \(∆A_m\)
1.0 1.0
1.0 0.5
1.0 0.3
1.0 0.2

¿Cómo juntamos los distintos \(A\)?

¿Promediamos?

Pero tienen distintos errores.

¡Por cuadrados mínimos!

Minimización de \(\chi^2\)

Dada una función \(f(x, p_0, \ldots, p_k)\), buscamos los parámetros \(p\) que minimicen:

\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \sum_i \left[\frac{r_i}{\sigma_i}\right]^2 \end{align} \]

donde \(r_i\) son los residuos.

Para ello, derivamos e igualamos a 0:

\[ 0 = \frac{\partial \chi^2}{\partial p_0} = \ldots = \frac{\partial \chi^2}{\partial p_k} \]

Mínimización de \(\chi^2\)

Hay dos casos, según si \(f\) es lineal en los parámetros.

Lineal: solución única

\[ f(x, A, B) = A \cos(x) + B \sin(x) \]

No lineal: múltiples soluciones.

\[ f(x, A, \phi) = A \cos(x + \phi) \]

Para funciones no lineales, hay que ayudar al algoritmo con parámetros iniciales.

\[ f(x, A, B, w) = A \cos(w x) + B \sin(w x) \]

Ejemplo: función constante

Supongamos que tenemos:

  • \(f(x) = A\), que no depende de \(x\),
  • errores iguales \(\sigma_i = \sigma\) para todo \(i\)

\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \frac{1}{\sigma^2} \sum_i \left[ y_i - A \right]^2 \end{align} \]

Minimizando: \[ \frac{\partial \chi^2}{\partial A} = 0 \]

obtenemos \[ A = \frac{1}{N} \sum_{i=1}^N y_i = \bar{y} \]

¡El promedio!

Si los \(\sigma_i\) son distintos,

obtenemos el promedio pesado.

Errores sistemáticos

Supongamos que el modelo es \(f(x) = Ax\).

Pero, cuando medimos:

x y A = y/x
1 2 2.00
2 3 1.50
3 4 1.33
9 10 1.11