| x | y | A = y/x |
|---|---|---|
| 1 | 2 | 2.00 |
| 2 | 3 | 1.50 |
| 3 | 4 | 1.33 |
| … | … | … |
| 9 | 10 | 1.11 |
¿Qué vamos a ver?
Medimos dos variables \((x, y)\) relacionadas como \(y = Ax = 10x\)
Calculamos \(A = \frac{y}{x}\)
Si \(\sigma_x \ll 1\) \(\longrightarrow\) \(\sigma_A = \frac{\sigma_y}{x}\)
Table 1: Valores
| \(x\) | \(y\) | \(A\) |
|---|---|---|
| 1 | 10 | 10 |
| 2 | 20 | 10 |
| 3 | 30 | 10 |
| 4 | 40 | 10 |
| \(y_m\) | \(A_m\) |
|---|---|
| 12.0 | 12.0 |
| 17.4 | 8.7 |
| 30.4 | 10.1 |
| 39.4 | 9.8 |
| \(∆y_m\) | \(∆A_m\) |
|---|---|
| 1.0 | 1.0 |
| 1.0 | 0.5 |
| 1.0 | 0.3 |
| 1.0 | 0.2 |
¿Cómo juntamos los distintos \(A\)?
¿Promediamos?
Pero tienen distintos errores.
¡Por cuadrados mínimos!
Dada una función \(f(x, p_0, \ldots, p_k)\), buscamos los parámetros \(p\) que minimicen:
\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \sum_i \left[\frac{r_i}{\sigma_i}\right]^2 \end{align} \]
donde \(r_i\) son los residuos.
Para ello, derivamos e igualamos a 0:
\[ 0 = \frac{\partial \chi^2}{\partial p_0} = \ldots = \frac{\partial \chi^2}{\partial p_k} \]
Hay dos casos, según si \(f\) es lineal en los parámetros.
Lineal: solución única
\[ f(x, A, B) = A \cos(x) + B \sin(x) \]
No lineal: múltiples soluciones.
\[ f(x, A, \phi) = A \cos(x + \phi) \]
Para funciones no lineales, hay que ayudar al algoritmo con parámetros iniciales.
\[ f(x, A, B, w) = A \cos(w x) + B \sin(w x) \]
Supongamos que tenemos:
\[ \begin{align} \chi^2 &= \sum_i \left[ \frac{y_i - f(x_i, p_0, \ldots, p_k)}{\sigma_i} \right]^2 \\ &= \frac{1}{\sigma^2} \sum_i \left[ y_i - A \right]^2 \end{align} \]
Minimizando: \[ \frac{\partial \chi^2}{\partial A} = 0 \]
obtenemos \[ A = \frac{1}{N} \sum_{i=1}^N y_i = \bar{y} \]
¡El promedio!
Si los \(\sigma_i\) son distintos,
obtenemos el promedio pesado.
Supongamos que el modelo es \(f(x) = Ax\).
Pero, cuando medimos:
| x | y | A = y/x |
|---|---|---|
| 1 | 2 | 2.00 |
| 2 | 3 | 1.50 |
| 3 | 4 | 1.33 |
| … | … | … |
| 9 | 10 | 1.11 |