Vecteur de bruit blancEdit
Un vecteur aléatoire (c’est-à-dire un processus partiellement indéterminé qui produit des vecteurs de nombres réels) est dit vecteur de bruit blanc ou vecteur aléatoire blanc si ses composantes ont chacune une distribution de probabilité de moyenne nulle et de variance finie, et sont statistiquement indépendantes : c’est-à-dire que leur distribution de probabilité conjointe doit être le produit des distributions des composantes individuelles.
Une condition nécessaire (mais, en général, non suffisante) pour l’indépendance statistique de deux variables est qu’elles soient statistiquement non corrélées, c’est-à-dire que leur covariance soit nulle. Par conséquent, la matrice de covariance R des composantes d’un vecteur de bruit blanc w à n éléments doit être une matrice diagonale n par n, où chaque élément diagonal Rii est la variance de la composante wi ; et la matrice de corrélation doit être la matrice d’identité n par n.
Si, en plus d’être indépendante, chaque variable de w a également une distribution normale avec une moyenne nulle et la même variance σ 2 {\displaystyle \sigma ^{2}}.
, on dit que w est un vecteur de bruit blanc gaussien. Dans ce cas, la distribution conjointe de w est une distribution normale multivariée ; l’indépendance entre les variables implique alors que la distribution présente une symétrie sphérique dans un espace à n dimensions. Par conséquent, toute transformation orthogonale du vecteur donnera lieu à un vecteur aléatoire blanc gaussien. En particulier, sous la plupart des types de transformée de Fourier discrète, comme la FFT et Hartley, la transformée W de w sera également un vecteur de bruit blanc gaussien ; c’est-à-dire que les n coefficients de Fourier de w seront des variables gaussiennes indépendantes de moyenne nulle et de même variance σ 2 {\displaystyle \sigma ^{2}}.
.
Le spectre de puissance P d’un vecteur aléatoire w peut être défini comme la valeur attendue du module au carré de chaque coefficient de sa transformée de Fourier W, c’est-à-dire Pi = E(|Wi|2). Selon cette définition, un vecteur de bruit blanc gaussien aura un spectre de puissance parfaitement plat, avec Pi = σ2 pour tout i.
Si w est un vecteur aléatoire blanc, mais pas gaussien, ses coefficients de Fourier Wi ne seront pas complètement indépendants les uns des autres ; bien que pour un grand n et des distributions de probabilité communes, les dépendances soient très subtiles, et leurs corrélations par paire peuvent être supposées nulles.
Souvent la condition plus faible « statistiquement non corrélée » est utilisée dans la définition du bruit blanc, au lieu de « statistiquement indépendante ». Cependant, certaines des propriétés communément attendues du bruit blanc (comme le spectre de puissance plat) peuvent ne pas tenir pour cette version plus faible. Sous cette hypothèse, la version plus stricte peut être désignée explicitement comme vecteur de bruit blanc indépendant.:p.60 D’autres auteurs utilisent plutôt fortement blanc et faiblement blanc.
Un exemple de vecteur aléatoire qui est un « bruit blanc gaussien » au sens faible mais pas au sens fort est x= où x1 est une variable aléatoire normale de moyenne nulle, et x2 est égal à +x1 ou à -x1, avec une probabilité égale. Ces deux variables sont non corrélées et normalement distribuées individuellement, mais elles ne sont pas normalement distribuées conjointement et ne sont pas indépendantes. Si x est tourné de 45 degrés, ses deux composantes seront toujours non corrélées, mais leur distribution ne sera plus normale.
Dans certaines situations, on peut assouplir la définition en permettant à chaque composante d’un vecteur aléatoire blanc w d’avoir une valeur espérée non nulle μ {\displaystyle \mu }.
. En traitement d’images notamment, où les échantillons sont typiquement restreints à des valeurs positives, on prend souvent μ {\displaystyle \mu }.
pour être la moitié de la valeur maximale de l’échantillon. Dans ce cas, le coefficient de Fourier W0 correspondant à la composante de fréquence nulle (essentiellement, la moyenne des wi) aura également une valeur attendue non nulle μ n {\displaystyle \mu {\sqrt {n}}}.
; et le spectre de puissance P sera plat uniquement sur les fréquences non nulles.
Bruit blanc à temps discretEdit
Un processus stochastique à temps discret W {\displaystyle W}.
est une généralisation des vecteurs aléatoires à nombre fini de composantes à un nombre infini de composantes. Un processus stochastique à temps discret W {\displaystyle W}
est appelé bruit blanc si sa moyenne ne dépend pas du temps n {\displaystyle n}.
et est égale à zéro, c’est-à-dire que E ] = 0 {\displaystyle \operatorname {E} ]=0}
et si la fonction d’autocorrélation R W = E W ] {\displaystyle R_{W}=\operatorname {E} W]}
ne dépend que de n {\displaystyle n}
mais pas de k {\displaystyle k}
et n’a une valeur non nulle que pour n = 0 {\displaystyle n=0}.
, c’est-à-dire que R W = σ 2 δ {\displaystyle R_{W}=\sigma ^{2}\delta }
.
Bruit blanc en temps continuEdit
Pour définir la notion de « bruit blanc » dans la théorie des signaux en temps continu, il faut remplacer le concept de « vecteur aléatoire » par un signal aléatoire en temps continu ; c’est-à-dire un processus aléatoire qui génère une fonction w {\displaystyle w}.
d’un paramètre à valeur réelle t {\displaystyle t}
.
Un tel processus est dit être un bruit blanc au sens fort si la valeur w ( t ) {\displaystyle w(t)}.
pour tout temps t {\displaystyle t}
est une variable aléatoire qui est statistiquement indépendante de toute son histoire avant t {\displaystyle t}.
. Une définition plus faible exige l’indépendance uniquement entre les valeurs w ( t 1 ) {\displaystyle w(t_{1})}.
et w ( t 2 ) {\displaystyle w(t_{2})}
à chaque paire d’instants distincts t 1 {\displaystyle t_{1}}
et t 2 {\displaystyle t_{2}}
. Une définition encore plus faible exige seulement que de telles paires w ( t 1 ) {\displaystyle w(t_{1})}.
et w ( t 2 ) {\displaystyle w(t_{2})}
ne sont pas corrélés. Comme dans le cas discret, certains auteurs adoptent la définition la plus faible pour le « bruit blanc », et utilisent le qualificatif indépendant pour se référer à l’une ou l’autre des définitions les plus fortes. D’autres utilisent faiblement blanc et fortement blanc pour les distinguer.
Cependant, une définition précise de ces concepts n’est pas triviale, car certaines quantités qui sont des sommes finies dans le cas discret fini doivent être remplacées par des intégrales qui peuvent ne pas converger. En effet, l’ensemble de toutes les instances possibles d’un signal w {\displaystyle w}
n’est plus un espace à dimension finie R n {\displaystyle \mathbb {R} ^{n}}.
, mais un espace de fonctions à dimension infinie. De plus, par toute définition, un signal de bruit blanc w {\displaystyle w}
devrait être essentiellement discontinu en tout point ; par conséquent, même les opérations les plus simples sur w {\displaystyle w}
, comme l’intégration sur un intervalle fini, nécessitent des machines mathématiques avancées.
Certains auteurs exigent que chaque valeur w ( t ) {\displaystyle w(t)}
soit une variable aléatoire à valeur réelle avec une espérance μ {\displaystyle \mu }.
et une variance finie σ 2 {\displaystyle \sigma ^{2}}.
. Alors la covariance E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}
entre les valeurs à deux instants t 1 {\displaystyle t_{1}}
et t 2 {\displaystyle t_{2}}
est bien définie : elle est nulle si les temps sont distincts, et σ 2 {\displaystyle \sigma ^{2}}.
s’ils sont égaux. Or, par cette définition, l’intégrale W = ∫ a a + r w ( t ) d t {\displaystyle W_{}=\int _{a}^{a+r}w(t)\,dt}.
sur tout intervalle de largeur positive r {\displaystyle r}.
serait simplement la largeur fois l’espérance : r μ {\displaystyle r\mu }.
. Cette propriété rendrait le concept inadéquat comme modèle des signaux physiques de « bruit blanc ».
C’est pourquoi la plupart des auteurs définissent le signal w {\displaystyle w}
indirectement en spécifiant des valeurs non nulles pour les intégrales de w ( t ) {\displaystyle w(t)}.
et | w ( t ) | 2 {\displaystyle |w(t)|^{2}}
sur un intervalle quelconque {\displaystyle }
, en fonction de sa largeur r {\displaystyle r}
. Dans cette approche, cependant, la valeur de w ( t ) {\displaystyle w(t)}
à un instant isolé ne peut être définie comme une variable aléatoire à valeur réelle. De même, la covariance E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}
devient infinie quand t 1 = t 2 {\displaystyle t_{1}=t_{2}}
; et la fonction d’autocorrélation R ( t 1 , t 2 ) {\displaystyle \mathrm {R} (t_{1},t_{2})}
doit être définie comme N δ ( t 1 – t 2 ) {\displaystyle N\delta (t_{1}-t_{2})}
, où N {\displaystyle N}
est une constante réelle et δ {\displaystyle \delta }
est la « fonction » de Dirac.
Dans cette approche, on précise généralement que l’intégrale W I {\displaystyle W_{I}}
de w ( t ) {\displaystyle w(t)}
sur un intervalle I = {\displaystyle I=}
est une variable aléatoire réelle de distribution normale, de moyenne nulle et de variance ( b – a ) σ 2 {\displaystyle (b-a)\sigma ^{2}}.
; et aussi que la covariance E ( W I ⋅ W J ) {\displaystyle \mathrm {E} (W_{I}\cdot W_{J})}
des intégrales W I {\displaystyle W_{I}}
, W J {\displaystyle W_{J}}
est r σ 2 {\displaystyle r\sigma ^{2}}
, où r {\displaystyle r}
est la largeur de l’intersection I ∩ J {\displaystyle I\cap J}
des deux intervalles I , J {\displaystyle I,J}
. Ce modèle est appelé un signal (ou processus) de bruit blanc gaussien.