Procesos estocásticos

El Capítulo está dedicado a los elementos básicos sobre procesos estocásticos. Se introducen conceptos generales, consideraciones estadísticas y fenómenos físicos de carcácter intrínsecamente aleatorio. Se dedica especial atención al transporte de radiación en su característica estocástica.

Introducción y definiciones de procesos estocásticos

En los procesos estocásticos se representan de los pasos necesarios para la realización de un cieto evento así como también los maneras en que cada uno de los pasos puede ser realizado en términos de las respectivas probabilidades. Por tanto, cualquier proceso en el que se vean involucradas probabilidades de ocurrencia resulta ser un proceso estocástico.

Al describir variables de carácter aleatorio, vinculadas a fenómenos de tipo probabilísticos como lo es el transporte de radiación, es asumido, como premisa implícita por defecto, el hecho de que las características aleatorias permanecen constantes durante el intervalo de tiempo de interés, aunque desde una perspectiva genérica podría no satisfacerse esta asumpción.

En efecto, al incorporar la dependencia (o evolución) de variables consideradas determinísticas, éstas describirán un proceso evolutivo de tipo analítico, mientras que para el caso de variables aleatorias mostrarán una evolución condicionada por el vínculo al fenómeno probabilístico asociado. Entonces, toda función definida a partir de variables aleatorias, como por ejemplo funciones de distribución o funciones de densidad, presentarán dependencia temporal determinada por su carácter aleatorio, dando lugar a la naturaleza estocástica del fenómeno físico involucrado.

Una definición más formal de un proceso estocástico es la siguiente:

El proceso estocástico consiste en el conjunto (o familia) de variables aleatorias :math:`{X_{t} t in [t_{ini}, t_{fin}]}` que se ordenan de acuerdo con el índice :math:`t`, por lo general identificando al tiempo.

En consecuencia, se tiene que para cada valor de \(t\) (instante) existe la variable aleatoria representada por \(X_{t}\), de modo que el proceso estocástico puede interpretarse como una sucesión de variables aleatorias, las que pueden variar (evolucionar) en sus características.

Los estados de variables aleatorias son los posibles valores que éstas pueden asumir. Por lo tanto, existe un espacio de estados asociados a las variables aleatorias. En particular, la variable temporal \(t\) puede ser de tipo discreto o bien de tipo continuo. La modificación de la variable \(t\), por ejemplo, daría lugar a cambios de estado que ocurren en el instante \(t\).

Por tanto, de acuerdo con el conjunto de índices [1] \(t \in T=[t_{ini}, t_{fin}]\), la variable aleatoria \(X_{t}\) puede clasificarse según los siguientes criterios para procesos estocásticos:

  • Si el conjunto \(T\) es continuo (por ejemplo \(\Re^{+}\)), resulta que \(X_{t}\) describe un proceso estocástico de parámetro continuo.
  • Si el conjunto \(T\) es dicreto, \(X_{t}\) describe un proceso estocástico de parámetro discreto.
  • Si para cada valor (instante) \(t\) la variable aleatoria \(X_{t}\) es de tipo continuo, resulta que proceso estocástico es de estado continuo.
  • Si para cada valor (instante) \(t\) la variable aleatoria \(X_{t}\) es de tipo discreto, resulta que proceso estocástico es de estado discreto.

Una cadena es un proceso estocástico para el cual el tiempo evoluciona de manera discreta y la variable aleatoria sólo puede tomar valores discretos en el espacio de estados correspondiente.

Un proceso de saltos puros es un proceso estocástico para el cual los cambios de estados suceden de forma aislada y aleatoria pero la variable aleatoria sólo asume valores discretos en el espacio de estados correspondiente. Diversamente, un proceso continuo se refiere al caso en que los cambios de estado se producen para cualquier valor de \(t\) (instante) y hacia cualquier estado dentro de un espacio continuo de estados correspondiente.

Procesos de estado discreto y cadenas de Markov

En el caso de procesos estocásticos con espacio de estados discreto, una secuencia de variables que indique el valor del proceso en instantes sucesivos [2] puede representarse del siguiente modo:

\[\begin{aligned} \{ X_{0} = x_{0}, X_{1} = x_{1}, ... , X_{n} = x_{n} \} \label{EqLXXXIV}\end{aligned}\]

donde cada variable \(X_{j} \, \: j \in [1, n]\) presenta una distribución de probabilidades tal que, en general, es diferente de las otras variables aunque podría haber características comunes.

Uno de los principales objetivos del estudio del caso discreto es el cálculo de proba- bilidades de ocupación de cada estado a partir de las probabilidades de cambio de estado. Si para el valor \(t_{j-1}\) (instante) el sistema está en el estado \(x_{j-1}\), la probabilidad de que al instante siguiente \(t_{j}\) se encuentre en el estado \(x_{j}\) se obtiene a partir de la probabilidad de transición o cambio de estado de \(x_{j-1}\) a \(x_{j}\) (o probabilidad condicionada) denotada por \(P\left( X_{j} = x_{j} / X_{j-1} = x_{j-1} \right) = P_{j, j-1}\), donde \(P_{j, j-1}\) es el valor que asume la probabilidad para el caso específico en consideración.

Las probabilidades del tipo \(P \left( X_{j} = x_{j} \right)\) se denominan probabilidades de ocupación de estado.

De modo similar, otro tipo de probabilidad de interés es la de ocupar un cierto estado en un instante \(t_{j}\), dado que en todos los instantes anteriores, desde \(t_{ini}\) a \(t_{j-1}\) se conoce en qué estados estuvo el proceso. En este caso, la probabilidad condicionada es \(P \left( X_{j} = x_{j} / X_{ini} = x_{ini}, \, ... , \, X_{j-1} = x_{j-1} \right) = P_{ini, ..., j-1, j}\)

Por tanto, la probabilidad \(P_{ini, ..., j-1, j}\) depende de toda la “historia pasada del proceso”, mientras que la probabilidad de transición depende únicamente del estado actual que ocupe el proceso.

Propiedad de Markov:

Se dice que un proceso cumple la propiedad de Markov cuando toda la historia pasada del proceso se puede resumir en la posición actual que ocupa el proceso para poder calcular la probabilidad de cambiar a otro estado. Es decir, se cumple:

\[\begin{aligned} P \left( X_{j} = x_{j} / X_{ini} = x_{ini}, \, ... , \, X_{j-1} = x_{j-1} \right) = P \left( X_{j} = x_{j} / X_{j-1} = x_{j-1} \right) \label{EqLXXXVII}\end{aligned}\]

Además, una propiedad importante que puede tener una cadena es que los valores \(p_{mn} (j)\) no dependan del valor de \(j\). Entonces, se tiene que las probabilidades de cambiar de estado son las mismas en cualquier instante. Por lo tanto, esta propiedad indica que las probabilidades de transición son estacionarias.

Procesos de saltos puros

En este caso, el proceso sigue siendo discreto en estados pero la gran diferencia es que los cambios de estado ocurren en cualquier instante en el tiempo (tiempo continuo).

Un proceso estocástico en tiempo continuo \(\{ N(t) \, t \ge 0 \}\) se denomina proceso de conteo si representa el número de veces que ocurre un suceso hasta el instante de tiempo \(t\).

En particular, se tiene \(N(t) \in \mathbf{N}\) y \(N(t^*) \le N(t) \, \; \forall t^* < t\).

Un proceso de conteo es un proceso de Poisson homogéneo de tasa \(\lambda\) si satisface:

  1. \(N(0) = 0\)
  2. \(N(t_{k}) - N(t_{k-1})\) es una variable aleatoria independiente (proceso de incrementos independientes) \(\forall \, k\).
  3. \(N(t + t^*) - N(t^*)\), que denota la cantidad de eventos que ocurren entre el instante \(t^*\) y \(t\), sigue una distribución de Poisson de parámetro \(\lambda t\).

Procesos de estados continuos y series temporales

Un concepto importante en procesos estocásticos es la realización, o bien una realización de una experiencia aleatoria, que es el resultado de una repetición de esa experiencia. Por tanto, en la experiencia aleatoria de “lanzar una vez un dado” una realización posible sería obtener el número 2, en el único lanzamiento hecho. En ese caso, la realización se reduce a un único número \(\{X\}\). Si se repite la experiencia, podrían obtener otras realizaciones (cualquiera de los números 1, 3, 4, 5 y 6).

En una experiencia \(M\)-dimensional, una realización es el resultado obtenido de los \(M\) parámetros, denotado por \(\{X_{1}, ..., X_{M} \}\).

Una serie temporal es una realización parcial de un proceso estocástico de parámetro tiempo discreto. De aquí que la teoría de los procesos estocásticos es de aplicación a las series temporales. Sin embargo, existe una fuerte restricción que radica en el hecho de que en muchas series temporales, ellas son la única realización observable del proceso estocástico asociado.

Características y medidas de procesos estocásticos

Para un espacio de estados \(M\)-dimensional, pueden calcularse cantidades y medidas estadísticamente representativas para los estados descritos por las variables \(M\)-dimensionales. En particular, se definen -entre tantos- medidas como tensores de valor medio y de covarianzas, que permiten obtener características representativas de los procesos estocástico.

Capítulo 1 Manual PENELOPE v. 2008

Procesos estocásticos estacionarios

En primera aproximación, se considerarán estacionarios a los procesos estocásticos que tengan un comportamiento constante a lo largo del tiempo.

Un proceso estocástico estacionario en sentido estricto requiere que al realizar un mismo desplazamiento en el tiempo de todas las variables de cualquier distribución conjunta finita se obtenga que esta distribución no varía. Es decir:

\[\begin{aligned} F \left( X_{i_1}, ... , X_{i_M} \right) = F \left( X_{i_1 + j}, ... , X_{i_M + j} \right) \: \, \forall i_k , \, j \label{EqLXXXVIII}\end{aligned}\]

En cambio, un proceso estocástico esestacionario en sentido débil requiere que se mantengan constantes todas sus características lo largo del tiempo. Es decir, que \(\forall t\):

  1. \(\langle X_t \rangle = \langle X \rangle \; \, \forall t\) donde \(\langle X \rangle\) denota el valor medio o de expectación.
  2. \(\sigma_{X_t} = \sigma_{X} \; \, \forall t\) donde \(\sigma_{X}\) denota la varianza.
  3. \(Cov \left( t, t+j \right) = Cov \left( t^*, t^*+j \right) = C_{j} \, \; \forall j = 0, \pm 1, \pm 2, ...\) donde \(Cov\) denota la covarianza y \(C\) es una constante.

Procesos de ruido blanco

Un proceso estocástico utilizado frecuentemente es el de “ruido blanco”, dado por el proceso estacionario \(RB_{t}\) que satisface:

  • \(\langle RB_{t} \rangle = \langle RB \rangle = 0 \, \: \forall t\)
  • \(Var(RB_{t}) = \sigma^2\)
  • \(Cov(RB_{t}, RB_{t^*}) = 0 \; \, t^* \ne t\)

En este sentido, puede interpretarse al ruido blanco como una sucesión de valores sin relación alguna entre ellos, oscilando en torno al cero dentro de un margen constante. En este tipo de procesos, conocer valores pasados no proporciona ninguna información sobre el futuro ya que el proceso es “puramente aleatorio”, y por consiguiente “carece de memoria”.

El transporte de radiación como proceso estocástico

blueIntroducción via secciones eficaces explicando analogía pdf-DCS y explicar pag 6-15 Manual PENELOPE v. 2008

Reformulación integral de la ecuación de transporte

A partir de la expresión íntegro-diferencial de la ecuación de transporte de Boltzmann ([EqX]), es posible reformular los términos para arribar a una ecuación completamente integral, lo cual resulta de particular utilidad para el manejo de soluciones de tipo numéricas, necesarias para situaciones realistas, ya que -como se sabe- las soluciones analíticas directas sólo son posibles en una cantidad miuy limitada de configuraciones.

Operando y reordenando los términos en la ecuación de Boltzmann [EqX], resulta:

\[\begin{split}\begin{aligned} t = t_{0} + \frac{s}{\lvert\vec{v}\rvert} \nonumber \\ \vec{r} = \vec{r_{0}} + s\, \vec{\Omega} \label{EcXI}\end{aligned}\end{split}\]

Por lo tanto, se obtiene:

\[\begin{split}\begin{aligned} \frac{d}{d s} \, \Psi \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega}, E, t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right) + \Sigma \; \Psi \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega}, E, t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right) = \\ \Gamma \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega}, E, t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right) \label{EqXII}\end{aligned}\end{split}\]

donde se ha definido \(\Gamma \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega}, E, t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right)\) como sigue:

\[\Gamma \equiv S + \iint \, \Sigma _{s} \left( \vec{r_{0}} + s \vec{\Omega}, (\vec{\Omega'}, E') \rightarrow (\vec{\Omega}, E) \right) \Psi \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega'}, E', t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right) \, \, d \, \vec{\Omega'} \, d \, E'\]

Puede verse [3]

\[\Psi \left( \vec{r_{0}}, \vec{\Omega}, E, t_{0} \right) = \int _{-\infty} ^{0} \, \: ds \left[ e^{ \int _{0} ^{s} \Sigma \left( \vec{r_{0}} - s' \vec{\Omega}, E \right) \, ds' } \; \: \Gamma \left( \vec{r_{0}} + s \vec{\Omega}, \vec{\Omega}, E, t_{0} +\frac{s}{\lvert\vec{v}\rvert} \right) \right]\]

Considerando que las variables \(\vec{r_{0}}\) y \(t_{0}\) son arbitrarias, se obtiene:

\[\begin{split}\begin{aligned} \Psi \left( \vec{r}, \vec{\Omega}, E, t \right) = %\nonumber \\ \int _{0} ^{\infty} \, \: e^{ \int _{0} ^{s} \Sigma \left( \vec{r_{0}} - s' \vec{\Omega}, E \right) \, ds' } \; \cdotp \; \: \nonumber \\ \left[ \iint \Sigma_{s} \left( \vec{r} - s \vec{\Omega}, (\vec{\Omega'}, E') \rightarrow (\vec{\Omega}, E) \right) \Psi \left( \vec{r} - s \vec{\Omega}, \vec{\Omega}, E, t - \frac{s}{\lvert\vec{v}\rvert} \right) %\nonumber \\ + S \left( \vec{r} - s' \vec{\Omega}, \vec{\Omega}, E, t \right) \right] %\right] \end{aligned}\end{split}\]

Es decir, se obtuvo una forma integral para la ecuación de Boltzmann, que puede escribirse en término de operadores [4]:

\[\Psi = \mathbf{K} \; \Psi + S' \label{EqXVI}\]

Se obtiene la solución para el flujo:

\[\Psi = \Sigma _{i=0} ^{\infty} \Psi_{i} \label{EqXVII}\]

Donde los términos son:

\[\begin{split}\begin{aligned} \Psi_{i} = \mathbf{K} \; \Psi_{i-1} \nonumber \\ \Psi_{0} = S' \label{EqXVIII} \end{aligned}\end{split}\]

Matemáticamente, la solución obtenida se denomina serie de von Neuman. La interpretación física del formalismo desarrollado es particularmente apropiada en el vínculo entre los términos de la serie y los procesos físicos involucrados. El término de orden 0 se refiere al flujo primario estrictamente proveniente de la fuente de emisión \(S\), mientras que los términos \(\Psi_{i}\) son las contribuciones de scattering a orden \(i\) obtenidas a partir del operador del kernel de scattering \(\mathbf{K}\).

[1]Estrictamente, subíndices.
[2]Se asume que la variable \(t\) refiere al tiempo.
[3]Introdúzcase \(e^{ \int _{-\infty} ^{s} \, \, \Sigma \left( \vec{r_{0}} + s' \vec{\Omega}, E \right) \, \, ds'}\) y calcúlese \(\frac{d}{d s} \Psi\) .
[4]Resulta conveniente expresar la ecuación de este modo para la resolución numérica de la misma, por ejemplo utilizando métodos estadísticos como Monte Carlo.