¿Qué vamos a ver?
Vimos dos medidas:
\[ R^2 = 1 - \frac{\sigma_r^2}{\sigma_{y}^2} \]
\[ \chi^2 = \sum \left[\frac{y_i - f(x_i)}{\sigma_{y_i}}\right]^2 \]
Evaluamos: distancia: (\(\chi^2\)) y signo (aleatoriedad)
\(\leftarrow\) más fácil acá
¿Por qué aleatoriedad?
Aleatoriedad:
más fácil con
más mediciones
¿Y \(R^2\)?
Tengo 3 conjuntos de mediciones y ajusto por \(y=Ax+B\)
¿Ajustaron bien?
¿Es importante esa pequeña diferencia?
Depende para que lo quieran usar.
Tengo un conjunto de datos \(y = 1.0 \, x + 0.2 \, x^2\) y le ajusto \(y = Ax + B\)
\(\chi^2\) falla si tenemos mal los errores
Para evaluar un ajuste, mirar los residuos:
Dada una función \(f(x, p_0, \ldots, p_k)\), buscamos los parámetros \(p\) que minimicen:
\[ \chi^2 = \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 = \sum_i \left[\frac{r_i}{\sigma_i}\right]^2 \]
Para ello, derivamos e igualamos a 0:
\[ 0 = \frac{\partial \chi^2}{\partial p_0} = \ldots = \frac{\partial \chi^2}{\partial p_k} \]
Hay dos casos, según si \(f\) es lineal en los parámetros.
En el caso no lineal, tenemos que ayudar al algoritmo con parámetros iniciales.
No lineal:
\(f(x, A, \phi) = A \cos(x + \phi)\)
Lineal:
\(f(x, A, B) = A \cos(x) + B \sin(x)\)
Supongamos que tenemos:
\[ \chi^2 = \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 = \frac{1}{\sigma^2} \sum_i \left[ y_i - A \right]^2 \]
Si minimizamos \[ \frac{\partial \chi^2}{\partial A} = 0 \]
obtenemos \[ A = \frac{1}{N} \sum_{i=1}^N y_i = \bar{y} \]
¡El promedio!
Si los \(\sigma_i\) son distintos,
obtenemos el promedio pesado.
Supongamos que el modelo es \(f(x) = Ax\).
\(x\) | \(y\) | \(\Delta y\) |
---|---|---|
1 | 2 | 1 |
2 | 4 | 1 |
3 | 6 | 1 |
… | … | … |
N | 2N | 1 |
¿Cómo calculamos \(A\)?
Opción: despejando.
\(A = y / x\) | \(\Delta A\) |
---|---|
2 | 1 |
2 | 1/2 |
2 | 1/3 |
… | … |
2 | 1/N |
¿Cómo juntamos esos valores de \(A\)?
Opción 1:
Promedio
\[ \frac{A_1 + A_2 + \ldots}{N} \]
Opción 2:
Promedio pesado
\[ \frac{w_1 A_1 + w_2 A_2 + \ldots}{N} \]
Opción 3:
cuadrados mínimos
\[ \chi^2 = \ldots \]
Cuadrados mínimos va hacer “un promedio ponderado”.
Supongamos que el modelo es \(f(x) = Ax\).
Pero, cuando medimos:
x | y | A = y/x |
---|---|---|
1 | 2 | 2.00 |
2 | 3 | 1.50 |
3 | 4 | 1.33 |
4 | 5 | 1.25 |
5 | 6 | 1.20 |
… | … | … |
9 | 10 | 1.11 |
Podemos descubrir y corregir errores sistemáticos.
Entonces, si la teoría era \(y=Ax\), ¿ajustamos \(y=Ax+B\) por las dudas?
¿Por qué la opción 2 es mejor?
Agregar más parámetros, aumenta el error de los parámetros.
Si preferimos la opción 1, ¿por qué no agregar un termino cuadratico?
\[ y = Ax + B + Cx^2 \]
Empezar por lo más simple \(\rightarrow\) complejizar cuando haga falta.
¿Cuál es el modelo?
¿Necesitamos conocer \(t_0\) e \(y_0\)?
Podemos ajustar el modelo completo: \[ y = A (t-t_0)^2 + y_0 \]
y que lo estime a partir de los datos.
Si expandimos el cuadrado: \[ y = A \; \mathbf{t^2} + (- 2 A t_0) \; \mathbf{t} + (A t_0^2 + y_0) \]
podemos ajustar: \[ y = A \; \mathbf{t^2} + B \; \mathbf{t} + C \]
\[ T^2 = \frac{(2\pi)^2}{g} L = A L\]
\[ T = \frac{2\pi}{\sqrt{g}} \sqrt{L} = A \sqrt{L} \]
Si tenemos un error sistemåtico \(L_0\) constante en \(L\)
\[ T^2 = \frac{(2\pi)^2}{g} (L - L_0) \]
\[ T = \frac{2\pi}{\sqrt{g}} \sqrt{L - L_0} \]
Es equivalente a: \[ T^2 = A L + B \]
NO es equivalente a: \[ T = A \sqrt{L} + B \]
¡Hay que modelar el experimento!
Si el modelo ajusta mal, los parámetros están mal.
¿Podemos estimar \(t_0\) directamente como una de las mediciones?