Variables estocásticas discretas

Si $ X $ es una variable estocástica que puede tomar un conjunto numerable de valores $ \{x_1,x_2,\dots\}$, podemos asignar a cada $ x_i $ una probabilidad $ f(x_i)$. Esta distribución de probabilidades no puede tomar valores negativos, y debe cumplir la condición de normalización $ \sum_i f(x_i)=1 $ (sumando todas las $ x_i $ posibles).

La distribución de probabilidades $ f(x_i) $ constituye toda la información posible sobre la variable estocástica $ X$. A menudo no puede determinarse $ f(x_i) $ sino algunos de sus momentos $ n$-ésimos, definidos como

$\displaystyle \langle X^n \rangle = \sum_i x_i^n  f(x_i) \;.
$

Los momentos de $ X $ dan información acerca de la forma de $ f(x_i)$. En general, los más importantes son los primeros de ellos. El primer momento $ \langle X \rangle $ suele señalarse como valor esperado porque nos provee el valor medio de la distribución. A partir del segundo momento se define la varianza de $ X $ como

$\displaystyle {\rm var}(X) = \langle X^2 \rangle - \langle X \rangle^2 \qquad
\left( = \left\langle (X - \langle X \rangle)^2\right\rangle\;\right)
$

y de aquí, la desviación estándar

$\displaystyle \sigma_X = \sqrt{\displaystyle\langle X^2 \rangle - \langle X \ra...
...\displaystyle\left\langle (X - \langle X\rangle)^2
\right\rangle}\;\right)\;,
$

que da una idea del “ancho” de la distribución.



Gustavo Castellano    19/11/2021