Cuando la variable
puede tomar valores continuos, la distribución debe
ser una función continua a trozos, de modo que la probabilidad de tener un
valor
sea el área bajo la curva
en ese intervalo:
En este caso,
se denomina densidad de probabilidad de
, y como en el caso discreto debe cumplirse
además de la
condición de normalización
donde la integración debe extenderse sobre todo el rango de valores posibles
para
.
Análogamente al caso de variables discretas, la definición del
-ésimo momento en este caso es
Obviamente, el primer momento
vuelve a ser
el valor medio (o valor esperado), y la desviación estándar
se
define como antes a partir del primer y el segundo momentos.
El conocimiento de todos los momentos
implica el
conocimiento completo de
. Esto se ve fácilmente
introduciendo la función característica
 |
(1) |
donde el último término tiene sentido como herramienta siempre que
sea pequeño para
grande. Vemos que la densidad de
probabilidad
es la transformada de Fourier de
:
Así hemos visto que, efectivamente, si conocemos todos los momentos
queda determinada la función característica, y a través de
esta última identidad podemos encontrar la densidad de probabilidad
. Del mismo modo, cuando conocemos
, los momentos se
obtienen directamente a partir de la relación (1):
Esta relación es muy útil cuando resulta más fácil encontrar los momentos
realizando la transformada de Fourier de
y luego derivando en lugar
de utilizar la definición.
Otra alternativa que puede ser interesante, dependiendo del problema encarado,
involucra una expansión de la función característica
en
término de los cumulantes de orden
, definidos mediante la
relación
A menudo necesitamos conocer la densidad de probabilidad en términos de la
variable estocástica
. Como los valores medios de cualquier función
deben coincidir al calcularlos en términos de
o
, el entrenado
lector puede mostrar que debe satisfacerse la relación
donde la delta de Dirac es la delta de Dirac.
Gustavo Castellano 19/11/2021