Probabilidades conjuntas

Si $ X $ e $ Y$ son variables estocásticas sobre un espacio muestral $ S$, con $X(S)=\{x_1,x_2,\dots\} $ e $Y(S)=\{y_1,y_2,\dots\}$, el conjunto $X(S)\times Y(S) $ estará conformado por los pares ordenados $\{(x_1,y_1), (x_1,y_2),$ $\dots,$ $(x_2,y_1),$ $(x_2,y_2),\dots,(x_i,y_j),\dots\} $ y será un “espacio de probabilidades”, de modo que a cada par ordenado $(x_i,y_j) $ asignamos una probabilidad conjunta $f(x_i,y_j)\!=\!P(X\!=\!x_i,Y\!=\!y_j)$.

Por supuesto, esa definición vale también para variables continuas. Teniendo la precaución de sustituir integrales por sumatorias cuando corresponda, escribiremos el desarrollo que sigue para el caso de variables continuas. Cuando tenemos la probabilidad conjunta $f(x,y)$, podemos obtener la distribución para una de las variables integrando todos los valores posibles para la otra:

$\displaystyle f_X(x) = \int  {\rm d}y\; f(x,y) \;.
$

Como en los casos anteriores, debe cumplirse siempre que $f(x,y)\ge0$, y la condición de normalización se escribe

$\displaystyle \int\!\int  {\rm d}x\;  {\rm d}y\; f(x,y) = 1 \;,
$

La interdependencia entre estas dos variables estocásticas se evalúa mediante la covarianza de $ X $ e $ Y$:

$\displaystyle {\rm cov}(X,Y)$ $\displaystyle = \int\!\int {\rm d}x  {\rm d}y\;
\big(x-\langle X\rangle\big) \big(y-\langle Y\rangle\big)\;f(x,y)$    
  $\displaystyle = \int\!\int {\rm d}x  {\rm d}y\; xy f(x,y)\; - \;\langle X\rangle \langle Y\rangle \rule{0em}{1.7em}$    
  $\displaystyle = \langle X Y\rangle - \langle X\rangle \langle Y\rangle \rule{0em}{1.7em} \;.$    

También suele usarse la correlación de $ X $ e $ Y$, definida como

$\displaystyle {\rm cor}(X,Y) = \frac{{\rm cov}(X,Y)}{\sigma_X \sigma_Y} \;,
$

pues tiene la ventaja de ser adimensional y presenta además las siguientes propiedades:
  1. ${\rm cor}(X,Y) = {\rm cor}(Y,X)$ ;
  2. $-1\le{\rm cor}(X,Y)\le1$ ;
  3. ${\rm cor}(X,X)=1 ;\qquad {\rm cor}(X,-X)=-1 $ ;
  4. ${\rm cor}(aX+b,cY+d)={\rm cor}(X,Y)$         (siempre que $a,c\neq0$).
Es interesante destacar que pares de variables con idéntica distribución de probabilidad pueden tener diferentes correlaciones.

En el caso en que $ X $ e $Y $ son independientes, se satisface que

  1. $f(x,y) = f_X(x) f_Y(y) $ ;
  2. $\langle X Y\rangle = \langle X\rangle \langle Y\rangle $ ;
  3. ${\rm var}(X+Y) = {\rm var}(X) + {\rm var}(Y) $ ;
  4. ${\rm cov}(X,Y) = 0$ .
Aquí también vale la pena notar que la última propiedad, ${\rm cov}(X,Y) = 0$, no necesariamente implica que $ X $ e $Y $ sean independientes.

A veces partimos de varias variables estocásticas y necesitamos información sobre una nueva variable estocástica $Z$, función de aquéllas. Por ejemplo, supongamos que contamos con la densidad de probabilidad conjunta $f(x,y) $ para las variables $ X $ e $ Y$, que están conectadas con $Z $ mediante la relación $Z=g(X,Y)$. Como señalamos para el caso de una variable, puede mostrarse que

$\displaystyle f_Z(z) = \int\!\int  {\rm d}x   {\rm d}y\; \delta\bigl(z-g(x,y)\bigr)  f(x,y) \;.
$

Cuando $ X $ e $Y $ son independientes,

$\displaystyle f_Z(z) = \int\!\int  {\rm d}x   {\rm d}y\;
\delta\bigl(z-g(x,y)\bigr) f_X(x) f_Y(y) \;.
$

En este caso, la función característica será

$\displaystyle \phi_Z(k) = \int\!\int  {\rm d}x   {\rm d}y\; e^{ikg(x,y)} f_X(x) f_Y(y) \;.
$

En particular, cuando $g(x,y)=x+y $ resulta

$\displaystyle \phi_Z(k) = \phi_X(k)\; \phi_Y(k) \;.
$

Gustavo Castellano    19/11/2021