Vector de ruido blancoEditar

Un vector aleatorio (es decir, un proceso parcialmente indeterminado que produce vectores de números reales) se dice que es un vector de ruido blanco o vector aleatorio blanco si sus componentes tienen cada uno una distribución de probabilidad con media cero y varianza finita, y son estadísticamente independientes: es decir, su distribución de probabilidad conjunta debe ser el producto de las distribuciones de los componentes individuales.

Una condición necesaria (pero, en general, no suficiente) para la independencia estadística de dos variables es que no estén estadísticamente correlacionadas; es decir, que su covarianza sea cero. Por tanto, la matriz de covarianza R de los componentes de un vector de ruido blanco w con n elementos debe ser una matriz diagonal de n por n, donde cada elemento diagonal Rii es la varianza del componente wi; y la matriz de correlación debe ser la matriz identidad de n por n.

Si, además de ser independientes, cada variable de w tiene también una distribución normal con media cero y la misma varianza σ 2 {\displaystyle \sigma ^{2}}.

, se dice que w es un vector de ruido blanco gaussiano. En ese caso, la distribución conjunta de w es una distribución normal multivariante; la independencia entre las variables implica entonces que la distribución tiene simetría esférica en el espacio n-dimensional. Por tanto, cualquier transformación ortogonal del vector dará como resultado un vector aleatorio blanco gaussiano. En particular, bajo la mayoría de los tipos de transformadas discretas de Fourier, como la FFT y la Hartley, la transformada W de w será también un vector de ruido blanco gaussiano; es decir, los n coeficientes de Fourier de w serán variables gaussianas independientes con media cero y la misma varianza σ 2 {\displaystyle \sigma ^{2}}.

.

El espectro de potencia P de un vector aleatorio w puede definirse como el valor esperado del módulo cuadrado de cada coeficiente de su transformada de Fourier W, es decir, Pi = E(|Wi|2). Bajo esa definición, un vector de ruido blanco gaussiano tendrá un espectro de potencia perfectamente plano, con Pi = σ2 para todo i.

Si w es un vector aleatorio blanco, pero no gaussiano, sus coeficientes de Fourier Wi no serán completamente independientes entre sí; aunque para n grandes y distribuciones de probabilidad comunes las dependencias son muy sutiles, y se puede suponer que sus correlaciones por pares son cero.

A menudo se utiliza la condición más débil «estadísticamente no correlacionada» en la definición de ruido blanco, en lugar de «estadísticamente independiente». Sin embargo, algunas de las propiedades comúnmente esperadas del ruido blanco (como el espectro de potencia plano) pueden no mantenerse para esta versión más débil. Bajo este supuesto, la versión más estricta puede denominarse explícitamente vector de ruido blanco independiente.:p.60 Otros autores utilizan en su lugar blanco fuerte y blanco débil.

Un ejemplo de vector aleatorio que es «ruido blanco gaussiano» en el sentido débil pero no en el fuerte es x= donde x1 es una variable aleatoria normal con media cero, y x2 es igual a +x1 o a -x1, con igual probabilidad. Estas dos variables no están correlacionadas y se distribuyen normalmente de forma individual, pero no se distribuyen normalmente de forma conjunta y no son independientes. Si x se gira 45 grados, sus dos componentes seguirán sin estar correlacionadas, pero su distribución ya no será normal.

En algunas situaciones se puede relajar la definición permitiendo que cada componente de un vector aleatorio blanco w tenga un valor esperado distinto de cero μ {\displaystyle \mu }

. En el procesamiento de imágenes especialmente, donde las muestras están típicamente restringidas a valores positivos, uno a menudo toma μ {\displaystyle \mu }

como la mitad del valor máximo de la muestra. En ese caso, el coeficiente de Fourier W0 correspondiente al componente de frecuencia cero (esencialmente, la media de los wi) también tendrá un valor esperado distinto de cero μ n {\displaystyle \mu {\sqrt {n}}.

; y el espectro de potencia P será plano sólo sobre las frecuencias no nulas.

Ruido blanco en tiempo discretoEditar

Un proceso estocástico en tiempo discreto W {{displaystyle W}}.

es una generalización de los vectores aleatorios con un número finito de componentes a infinitos componentes. Un proceso estocástico de tiempo discreto W {\displaystyle W}

se llama ruido blanco si su media no depende del tiempo n {\displaystyle n}

y es igual a cero, es decir, E ] = 0 {\displaystyle \operatorname {E} ]=0}

y si la función de autocorrelación R W = E W ] {\displaystyle R_{W}=\operatorname {E} W]}

sólo depende de n {\displaystyle n}

pero no de k {\displaystyle k}

y tiene un valor no nulo sólo para n = 0 {\displaystyle n=0}

, es decir, R W = σ 2 δ {\displaystyle R_{W}=\sigma ^{2}\delta }

.

Ruido blanco en tiempo continuoEditar

Para definir la noción de «ruido blanco» en la teoría de señales en tiempo continuo, hay que sustituir el concepto de «vector aleatorio» por el de señal aleatoria en tiempo continuo; es decir, un proceso aleatorio que genera una función w {\displaystyle w}

de un parámetro de valor real t {\displaystyle t}

.

Se dice que dicho proceso es ruido blanco en el sentido más fuerte si el valor w ( t ) {\displaystyle w(t)}

para cualquier tiempo t {\displaystyle t}

es una variable aleatoria que es estadísticamente independiente de toda su historia antes de t {\displaystyle t}

. Una definición más débil requiere la independencia sólo entre los valores w ( t 1 ) {\displaystyle w(t_{1})}

y w ( t 2 ) {displaystyle w(t_{2})}

en cada par de tiempos distintos t 1 {\displaystyle t_{1}}

y t 2 {\displaystyle t_{2}}

. Una definición aún más débil requiere sólo que tales pares w ( t 1 ) {\displaystyle w(t_{1})}

y w ( t 2 ) {displaystyle w(t_{2})}

no estén correlacionadas. Como en el caso discreto, algunos autores adoptan la definición más débil para el «ruido blanco», y utilizan el calificativo independiente para referirse a cualquiera de las definiciones más fuertes. Otros utilizan «débilmente blanco» y «fuertemente blanco» para distinguirlos.

Sin embargo, una definición precisa de estos conceptos no es trivial, porque algunas cantidades que son sumas finitas en el caso discreto finito deben ser sustituidas por integrales que pueden no converger. En efecto, el conjunto de todas las instancias posibles de una señal w

ya no es un espacio de dimensiones finitas R n {\displaystyle \mathbb {R} ^{n}}

, sino un espacio de funciones de dimensión infinita. Además, por cualquier definición una señal de ruido blanco w {\displaystyle w}

tendría que ser esencialmente discontinua en cada punto; por lo tanto, incluso las operaciones más simples sobre w

, como la integración sobre un intervalo finito, requieren una maquinaria matemática avanzada.

Algunos autores requieren que cada valor w ( t ) {\displaystyle w(t)}

sea una variable aleatoria de valor real con expectativa μ {\displaystyle \mu }

y alguna varianza finita σ 2 {\displaystyle \sigma ^{2}}

. Entonces la covarianza E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}

entre los valores en dos momentos t 1 {\displaystyle t_{1}}

y t 2 {\displaystyle t_{2}}

está bien definido: es cero si los tiempos son distintos, y σ 2 {\displaystyle \sigma ^{2}}

si son iguales. Sin embargo, por esta definición, la integral W = ∫ a a + r w ( t ) d t {\displaystyle W_{}=\int _{a}^{a+r}w(t)\t}

sobre cualquier intervalo con anchura positiva r {\displaystyle r}

sería simplemente la anchura por la expectativa: r μ {\displaystyle r\mu }

. Esta propiedad haría que el concepto fuera inadecuado como modelo de señales físicas de «ruido blanco».

Por ello, la mayoría de los autores definen la señal w {\displaystyle w}

indirectamente especificando valores no nulos para las integrales de w ( t ) {\displaystyle w(t)}

y | w ( t ) | 2 {\displaystyle |w(t)|^{2}}

sobre cualquier intervalo {\displaystyle }

, en función de su anchura r {\displaystyle r}

. En este enfoque, sin embargo, el valor de w ( t ) {\displaystyle w(t)}

en un momento aislado no puede definirse como una variable aleatoria de valor real. También la covarianza E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}

se hace infinita cuando t 1 = t 2 {\displaystyle t_{1}=t_{2}}

; y la función de autocorrelación R ( t 1 , t 2 ) {\displaystyle \mathrm {R} (t_{1},t_{2})}

debe definirse como N δ ( t 1 – t 2 ) {\displaystyle N\delta (t_{1}-t_{2})}

, donde N {\displaystyle N}

es una constante real y δ {\displaystyle \delta }

es la «función» de Dirac.

En este enfoque, se suele especificar que la integral W I {\displaystyle W_{I}}

de w ( t ) {\displaystyle w(t)}

sobre un intervalo I = {\displaystyle I=}

es una variable aleatoria real con distribución normal, media cero y varianza ( b – a ) σ 2 {\displaystyle (b-a)^{2}}

; y también que la covarianza E ( W I ⋅ W J ) {\displaystyle \mathrm {E} (W_{I}\cdot W_{J})}

de las integrales W I {\displaystyle W_{I}}

, W J {{displaystyle W_{J}}

es r σ 2 {\displaystyle r\sigma ^{2}}

, donde r {\displaystyle r}

es la anchura de la intersección I ∩ J {\displaystyle I\cap J}

de los dos intervalos I , J {\displaystyle I,J}

. Este modelo se denomina señal (o proceso) de ruido blanco gaussiano.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.