Weißer RauschvektorBearbeiten

Ein Zufallsvektor (d. h. ein teilweise unbestimmter Prozess, der Vektoren reeller Zahlen erzeugt) wird als weißer Rauschvektor oder weißer Zufallsvektor bezeichnet, wenn seine Komponenten jeweils eine Wahrscheinlichkeitsverteilung mit Mittelwert Null und endlicher Varianz aufweisen und statistisch unabhängig sind: Das heißt, ihre gemeinsame Wahrscheinlichkeitsverteilung muss das Produkt der Verteilungen der einzelnen Komponenten sein.

Eine notwendige (aber im Allgemeinen nicht hinreichende) Bedingung für die statistische Unabhängigkeit zweier Variablen ist, dass sie statistisch unkorreliert sind, d. h. dass ihre Kovarianz gleich Null ist. Daher muss die Kovarianzmatrix R der Komponenten eines Vektors des weißen Rauschens w mit n Elementen eine n-mal-n-Diagonalmatrix sein, wobei jedes Diagonalelement Rii die Varianz der Komponente wi ist; und die Korrelationsmatrix muss die n-mal-n-Identitätsmatrix sein.

Wenn jede Variable in w nicht nur unabhängig ist, sondern auch eine Normalverteilung mit Mittelwert Null und der gleichen Varianz σ 2 {\displaystyle \sigma ^{2}}

, so wird w als ein Gaußscher Vektor des weißen Rauschens bezeichnet. In diesem Fall ist die gemeinsame Verteilung von w eine multivariate Normalverteilung; die Unabhängigkeit zwischen den Variablen impliziert dann, dass die Verteilung sphärische Symmetrie im n-dimensionalen Raum hat. Daher führt jede orthogonale Transformation des Vektors zu einem weißen Gaußschen Zufallsvektor. Insbesondere wird bei den meisten Arten der diskreten Fourier-Transformation, wie FFT und Hartley, die Transformation W von w ebenfalls ein Vektor mit weißem Gaußschen Rauschen sein, d. h. die n Fourier-Koeffizienten von w sind unabhängige Gaußsche Variablen mit Mittelwert Null und gleicher Varianz σ 2 {\displaystyle \sigma ^{2}}

.

Das Leistungsspektrum P eines Zufallsvektors w kann als Erwartungswert des quadrierten Moduls jedes Koeffizienten seiner Fouriertransformation W definiert werden, d. h. Pi = E(|Wi|2). Nach dieser Definition hat ein Gaußscher weißer Rauschvektor ein vollkommen flaches Leistungsspektrum mit Pi = σ2 für alle i.

Ist w ein weißer Zufallsvektor, aber kein Gaußscher, so sind seine Fourier-Koeffizienten Wi nicht völlig unabhängig voneinander; allerdings sind die Abhängigkeiten für große n und allgemeine Wahrscheinlichkeitsverteilungen sehr subtil, und ihre paarweisen Korrelationen können als Null angenommen werden.

Oft wird in der Definition von weißem Rauschen die schwächere Bedingung „statistisch unkorreliert“ anstelle von „statistisch unabhängig“ verwendet. Einige der allgemein erwarteten Eigenschaften von weißem Rauschen (wie z. B. ein flaches Leistungsspektrum) sind jedoch für diese schwächere Version möglicherweise nicht gegeben. Unter dieser Annahme kann die strengere Version ausdrücklich als unabhängiger Vektor des weißen Rauschens bezeichnet werden:S.60 Andere Autoren verwenden stattdessen „stark weiß“ und „schwach weiß“.

Ein Beispiel für einen Zufallsvektor, der „Gaußsches weißes Rauschen“ im schwachen, aber nicht im starken Sinne ist, ist x=, wobei x1 eine normale Zufallsvariable mit Mittelwert Null ist und x2 mit gleicher Wahrscheinlichkeit gleich +x1 oder -x1 ist. Diese beiden Variablen sind unkorreliert und einzeln normalverteilt, aber sie sind nicht gemeinsam normalverteilt und nicht unabhängig. Wenn x um 45 Grad gedreht wird, sind seine beiden Komponenten immer noch unkorreliert, aber ihre Verteilung ist nicht mehr normalverteilt.

In manchen Situationen kann man die Definition lockern, indem man zulässt, dass jede Komponente eines weißen Zufallsvektors w einen Erwartungswert μ ungleich Null hat.

. Insbesondere in der Bildverarbeitung, wo Stichproben typischerweise auf positive Werte beschränkt sind, nimmt man oft μ {\displaystyle \mu }

als die Hälfte des maximalen Abtastwertes an. In diesem Fall hat der Fourier-Koeffizient W0, der der Nullfrequenzkomponente entspricht (im Wesentlichen der Mittelwert der wi), ebenfalls einen von Null verschiedenen Erwartungswert μ n {\displaystyle \mu {\sqrt {n}}

; und das Leistungsspektrum P wird nur über die von Null verschiedenen Frequenzen flach sein.

Zeitdiskretes weißes RauschenEdit

Ein zeitdiskreter stochastischer Prozess W {\displaystyle W}

ist eine Verallgemeinerung von Zufallsvektoren mit einer endlichen Anzahl von Komponenten auf unendlich viele Komponenten. Ein zeitdiskreter stochastischer Prozess W {\displaystyle W}

wird weißes Rauschen genannt, wenn sein Mittelwert nicht von der Zeit n {\displaystyle n}

und gleich Null ist, d.h. E ] = 0 {\displaystyle \operatorname {E} ]=0}

und wenn die Autokorrelationsfunktion R W = E W ] {\displaystyle R_{W}=\operatorname {E} W]}

hängt nur von n {\displaystyle n}

, aber nicht von k {\displaystyle k}

und hat einen Wert ungleich Null nur für n = 0 {\displaystyle n=0}

, d.h. R W = σ 2 δ {\displaystyle R_{W}=\sigma ^{2}\delta }

.

Zeitkontinuierliches weißes RauschenBearbeiten

Um den Begriff des „weißen Rauschens“ in der Theorie der zeitkontinuierlichen Signale zu definieren, muss man den Begriff des „Zufallsvektors“ durch ein zeitkontinuierliches Zufallssignal ersetzen, d.h. einen Zufallsprozess, der eine Funktion w {\displaystyle w}

eines reell-wertigen Parameters t {\displaystyle t}

.

Ein solcher Prozess wird als weißes Rauschen im stärksten Sinne bezeichnet, wenn der Wert w ( t ) {\displaystyle w(t)}

für jeden Zeitpunkt t {\displaystyle t}

ist eine Zufallsvariable, die statistisch unabhängig von ihrer gesamten Geschichte vor t {\displaystyle t} ist

. Eine schwächere Definition verlangt Unabhängigkeit nur zwischen den Werten w ( t 1 ) {\displaystyle w(t_{1})}

und w ( t 2 ) {\displaystyle w(t_{2})}

zu jedem Paar verschiedener Zeitpunkte t 1 {\displaystyle t_{1}}

und t 2 {\displaystyle t_{2}}

. Eine noch schwächere Definition verlangt nur, dass solche Paare w ( t 1 ) {\displaystyle w(t_{1})}

und w ( t 2 ) {\displaystyle w(t_{2})}

unkorreliert sein. Wie im diskreten Fall übernehmen einige Autoren die schwächere Definition für „weißes Rauschen“ und verwenden den Zusatz „unabhängig“, um sich auf eine der beiden stärkeren Definitionen zu beziehen. Andere verwenden die Begriffe „schwach weiß“ und „stark weiß“, um zwischen ihnen zu unterscheiden.

Eine genaue Definition dieser Begriffe ist jedoch nicht trivial, da einige Größen, die im endlichen diskreten Fall endliche Summen sind, durch Integrale ersetzt werden müssen, die möglicherweise nicht konvergieren. In der Tat ist die Menge aller möglichen Instanzen eines Signals w {\displaystyle w}

ist nicht mehr ein endlich-dimensionaler Raum R n {\displaystyle \mathbb {R} ^{n}}

, sondern ein unendlich-dimensionaler Funktionsraum. Außerdem ist nach jeder Definition ein weißes Rauschsignal w {\displaystyle w}

an jedem Punkt im Wesentlichen diskontinuierlich sein; daher sind selbst die einfachsten Operationen auf w {\displaystyle w}

, wie die Integration über ein endliches Intervall, eine fortgeschrittene mathematische Technik erfordern.

Einige Autoren verlangen für jeden Wert w ( t ) {\displaystyle w(t)}

eine reellwertige Zufallsvariable mit dem Erwartungswert μ {\displaystyle \mu }

und einer endlichen Varianz σ 2 {\displaystyle \sigma ^{2}}

. Dann ist die Kovarianz E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}

zwischen den Werten zu zwei Zeitpunkten t 1 {\displaystyle t_{1}}

und t 2 {\displaystyle t_{2}}

ist wohldefiniert: Sie ist Null, wenn die Zeitpunkte verschieden sind, und σ 2 {\displaystyle \sigma ^{2}}

, wenn sie gleich sind. Nach dieser Definition ist jedoch das Integral W = ∫ a a + r w ( t ) d t {\displaystyle W_{}=\int _{a}^{a+r}w(t)\,dt}

über jedes Intervall mit positiver Breite r {\displaystyle r}

wäre einfach die Breite mal die Erwartung: r μ {\displaystyle r\mu }

. Diese Eigenschaft würde das Konzept als Modell für physikalische Signale mit „weißem Rauschen“ untauglich machen.

Deshalb definieren die meisten Autoren das Signal w {\displaystyle w}

indirekt durch die Angabe von Werten ungleich Null für die Integrale von w ( t ) {\displaystyle w(t)}

und | w ( t ) | 2 {\displaystyle |w(t)|^{2}}

über einem beliebigen Intervall {\displaystyle }

, in Abhängigkeit von seiner Breite r {\displaystyle r}

. Bei diesem Ansatz wird jedoch der Wert von w ( t ) {\displaystyle w(t)}

zu einem isolierten Zeitpunkt nicht als reellwertige Zufallsvariable definiert werden. Auch die Kovarianz E ( w ( t 1 ) ⋅ w ( t 2 ) ) {\displaystyle \mathrm {E} (w(t_{1})\cdot w(t_{2}))}

wird unendlich, wenn t 1 = t 2 {\displaystyle t_{1}=t_{2}}

; und die Autokorrelationsfunktion R ( t 1 , t 2 ) {\displaystyle \mathrm {R} (t_{1},t_{2})}

muss definiert werden als N δ ( t 1 – t 2 ) {\displaystyle N\delta (t_{1}-t_{2})}

, wobei N {\displaystyle N}

eine reelle Konstante ist und δ {\displaystyle \delta }

die Diracsche „Funktion“ ist.

In diesem Ansatz gibt man gewöhnlich an, dass das Integral W I {\displaystyle W_{I}}

von w ( t ) {\displaystyle w(t)}

über einem Intervall I = {\displaystyle I=}

ist eine reelle Zufallsvariable mit Normalverteilung, Mittelwert Null und Varianz ( b – a ) σ 2 {\displaystyle (b-a)\sigma ^{2}}

; und dass auch die Kovarianz E ( W I ⋅ W J ) {\displaystyle \mathrm {E} (W_{I}\cdot W_{J})}

der Integrale W I {\displaystyle W_{I}}

, W J {\displaystyle W_{J}}

ist r σ 2 {\displaystyle r\sigma ^{2}}

, wobei r {\displaystyle r}

die Breite der Schnittmenge I ∩ J {\displaystyle I\cap J}

der beiden Intervalle I , J {\displaystyle I,J}

. Dieses Modell wird als Gaußsches weißes Rauschsignal (oder Prozess) bezeichnet.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.