Autokorrelation

Aus besserwiki.de
Oben: Ein Diagramm einer Reihe von 100 Zufallszahlen, hinter denen sich eine Sinusfunktion verbirgt. Unten: Die Sinusfunktion wird in einem durch Autokorrelation erzeugten Korrelationsdiagramm sichtbar.
Visueller Vergleich von Faltung, Kreuzkorrelation und Autokorrelation. Für die Operationen mit der Funktion f und unter der Annahme, dass die Höhe von f 1,0 ist, wird der Wert des Ergebnisses an 5 verschiedenen Punkten durch den schattierten Bereich unter jedem Punkt angezeigt. Die Symmetrie von f ist auch der Grund dafür, dass und in diesem Beispiel identisch sind.

Die Autokorrelation, im Falle der diskreten Zeit auch als serielle Korrelation bezeichnet, ist die Korrelation eines Signals mit einer verzögerten Kopie seiner selbst als Funktion der Verzögerung. Inoffiziell ist es die Ähnlichkeit zwischen Beobachtungen in Abhängigkeit von der Zeitverzögerung zwischen ihnen. Die Autokorrelationsanalyse ist ein mathematisches Hilfsmittel, um sich wiederholende Muster zu finden, wie z. B. das Vorhandensein eines periodischen Signals, das durch Rauschen verdeckt wird, oder die Identifizierung der fehlenden Grundfrequenz in einem Signal, die durch seine harmonischen Frequenzen impliziert wird. Sie wird häufig in der Signalverarbeitung zur Analyse von Funktionen oder Werteserien verwendet, z. B. bei Signalen im Zeitbereich.

In verschiedenen Fachgebieten wird der Begriff Autokorrelation unterschiedlich definiert, und nicht alle diese Definitionen sind gleichwertig. In einigen Bereichen wird der Begriff austauschbar mit Autokovarianz verwendet.

Einheitswurzelprozesse, trend-stationäre Prozesse, autoregressive Prozesse und gleitende Durchschnittsprozesse sind spezifische Formen von Prozessen mit Autokorrelation.

Die Autokorrelation (auch Kreuzautokorrelation) ist ein Begriff aus der Stochastik und der Signalverarbeitung und beschreibt die Korrelation einer Funktion oder eines Signals mit sich selbst zu einem früheren Zeitpunkt. Korrelationsfunktionen werden für Folgen von Zufallsvariablen berechnet, die von der Zeit abhängen. Diese Funktionen geben an, wie viel Ähnlichkeit die um die Zeit verschobene Folge mit der ursprünglichen Folge hat. Da die unverschobene Folge mit sich selbst am ähnlichsten ist, hat die Autokorrelation für die unverschobene Folge den höchsten Wert. Wenn zwischen den Gliedern der Folge eine Beziehung besteht, die mehr als zufällig ist, hat auch die Korrelation der ursprünglichen Folge mit der verschobenen Folge in der Regel einen Wert, der signifikant von Null abweicht. Man sagt dann, die Glieder der Folge sind autokorreliert.

Autokorrelationsfunktion der Zeitreihe der Tiefenmessungen des Huronsees

Autokorrelation von stochastischen Prozessen

In der Statistik ist die Autokorrelation eines realen oder komplexen Zufallsprozesses die Pearson-Korrelation zwischen den Werten des Prozesses zu verschiedenen Zeitpunkten in Abhängigkeit von den beiden Zeitpunkten oder der Zeitverzögerung. Sei sei ein Zufallsprozess, und sei ein beliebiger Punkt in der Zeit ( kann eine ganze Zahl für einen zeitdiskreten Prozess oder eine reelle Zahl für einen zeitkontinuierlichen Prozess sein). Dann ist der Wert (oder die Realisierung), der/die durch einen bestimmten Lauf des Prozesses zum Zeitpunkt . Angenommen, der Prozess hat einen Mittelwert und Varianz zum Zeitpunkt hat, für jeden . Dann lautet die Definition der Autokorrelationsfunktion zwischen den Zeitpunkten und ist

 

 

 

 

(Gleichung 1)

wobei der Erwartungswertoperator ist und der Balken die komplexe Konjugation darstellt. Beachten Sie, dass der Erwartungswert möglicherweise nicht genau definiert ist.

Subtrahiert man den Mittelwert vor der Multiplikation, so erhält man die Autokovarianzfunktion zwischen den Zeiten und :

 

 

 

 

(Gl.2)

Man beachte, dass dieser Ausdruck nicht für alle Zeitreihen oder Prozesse gut definiert ist, da der Mittelwert möglicherweise nicht existiert oder die Varianz null (für einen konstanten Prozess) oder unendlich sein kann (für Prozesse mit einer Verteilung, die keine wohlbehaltenen Momente aufweist, wie z. B. bestimmte Arten von Potenzgesetzen).

Definition für einen stationären stochastischen Prozess mit weitem Sinn

Wenn ein weiträumig stationärer Prozess ist, dann sind der Mittelwert und die Varianz zeitunabhängig, und die Autokovarianzfunktion hängt nur von der Verzögerung zwischen und : Die Autokovarianz hängt nur vom zeitlichen Abstand zwischen den Wertepaaren ab, nicht aber von ihrer Position in der Zeit. Dies bedeutet ferner, dass die Autokovarianz und die Autokorrelation als Funktion der Zeitverzögerung ausgedrückt werden können, und dass dies eine gleichmäßige Funktion der Verzögerung wäre . Daraus ergeben sich die bekannteren Formen für die Autokorrelationsfunktion

 

 

 

 

(Gl.3)

und die Autokovarianzfunktion:

 

 

 

 

(Gleichung.4)

Normalisierung

In einigen Disziplinen (z. B. Statistik und Zeitreihenanalyse) ist es üblich, die Autokovarianzfunktion zu normalisieren, um einen zeitabhängigen Pearson-Korrelationskoeffizienten zu erhalten. In anderen Disziplinen (z. B. im Ingenieurwesen) wird die Normalisierung jedoch in der Regel weggelassen und die Begriffe "Autokorrelation" und "Autokovarianz" werden austauschbar verwendet.

Die Definition des Autokorrelationskoeffizienten eines stochastischen Prozesses lautet

Wenn die Funktion gut definiert ist, muss ihr Wert im Bereich liegen, wobei 1 eine perfekte Korrelation und -1 eine perfekte Anti-Korrelation anzeigt.

Für einen Prozess der Stationarität schwachen Sinnes, der Stationarität breiten Sinnes (WSS), lautet die Definition

wobei

Die Normalisierung ist wichtig, weil die Interpretation der Autokorrelation als Korrelation ein skalenfreies Maß für die Stärke der statistischen Abhängigkeit liefert und weil die Normalisierung Auswirkungen auf die statistischen Eigenschaften der geschätzten Autokorrelationen hat.

Eigenschaften

Symmetrieeigenschaft

Die Tatsache, dass die Autokorrelationsfunktion ist eine gerade Funktion und kann angegeben werden als

bzw. für einen WSS-Prozess:

Maximum bei Null

Für einen WSS-Prozess:

Beachten Sie, dass immer real ist.

Cauchy-Schwarz-Ungleichung

Die Cauchy-Schwarz-Ungleichung, Ungleichung für stochastische Prozesse:

Autokorrelation von weißem Rauschen

Eine häufige Anwendung der Autokorrelationsfunktion besteht darin, in (gegebenenfalls trendbereinigten) stark verrauschten Signalen Periodizitäten zu finden, die nicht ohne weiteres ersichtlich sind:

  • Die Autokorrelationsfunktion eines periodischen Signals ist wieder ein periodisches Signal mit derselben Periode. So ist zum Beispiel die Autokorrelationsfunktion eines Kosinussignals
wiederum eine Kosinusfunktion mit derselben Kreisfrequenz (Erhaltung der Signalperiode).
,
Allerdings ist hierbei die Phaseninformation verloren gegangen.
Eine gleichwertige Möglichkeit des Findens der Signalperiode ist die Möglichkeit, das Fourier-Spektrum des Signals nach einer dominanten Frequenz zu untersuchen. Da die Autokorrelation die normierte Fourier-Transformierte des Leistungsdichtespektrum ist (gemäß dem Wiener-Khinchine-Theorem), sind beide Ansätze gleichwertig.
  • Da weißes Rauschen zu einem Zeitpunkt völlig unabhängig von weißem Rauschen zu einem anderen Zeitpunkt ist, ergibt die Autokorrelationsfunktion von weißem Rauschen einen Dirac-Impuls an der Stelle . Liegt weißes Rauschen der Leistungsdichte für die Frequenzen vor, so gilt:

    Bei gefärbtem Rauschen, das in technischen Systemen meistens an Stelle von weißem Rauschen vorkommt, ergibt sich ebenso ein absolutes Maximum der Autokorrelationsfunktion bei und ein Abfall der Autokorrelationsfunktion für Verschiebungen . Die Breite dieses Maximums wird von der "Farbe" des Rauschens bestimmt.

Bei der Analyse von Periodizitäten wird nur die Autokorrelationsfunktion für große Werte von betrachtet und der Bereich um ignoriert, da er vor allem Information über die Stärke des Rauschsignals enthält.

Die Autokorrelation eines zeitkontinuierlichen weißen Rauschsignals hat eine starke Spitze (dargestellt durch eine Dirac-Delta-Funktion) bei und beträgt genau für alle anderen .

Wiener-Khinchin-Theorem

Das Wiener-Khinchin-Theorem verknüpft die Autokorrelationsfunktion mit der Leistungsspektraldichte über die Fourier-Transformation:

Für reellwertige Funktionen hat die symmetrische Autokorrelationsfunktion eine reelle symmetrische Transformation, so dass das Wiener-Khinchin-Theorem nur für reelle Kosinusfunktionen umformuliert werden kann:

Autokorrelation von Zufallsvektoren

Die (potenziell zeitabhängige) Autokorrelationsmatrix (auch zweites Moment genannt) eines (potenziell zeitabhängigen) Zufallsvektors ist eine Matrix, die als Elemente die Autokorrelationen aller Paare von Elementen des Zufallsvektors enthält . Die Autokorrelationsmatrix wird in verschiedenen digitalen Signalverarbeitungsalgorithmen verwendet.

Für einen Zufallsvektor Da die Autokorrelationsmatrix zufällige Elemente enthält, deren Erwartungswert und Varianz existieren, ist die Autokorrelationsmatrix definiert durch

 

 

 

 

(Gl.5)

wobei bezeichnet die Transposition und hat die Dimensionen .

komponentenweise geschrieben:

Wenn ist ein komplexer Zufallsvektor, die Autokorrelationsmatrix ist stattdessen definiert durch

Hier die hermitesche Transponierung.

Zum Beispiel, wenn ein Zufallsvektor ist, dann ist ist eine Matrix, deren -te Eintrag ist .

Eigenschaften der Autokorrelationsmatrix

  • Die Autokorrelationsmatrix ist eine hermitsche Matrix für komplexe Zufallsvektoren und eine symmetrische Matrix für reelle Zufallsvektoren.
  • Die Autokorrelationsmatrix ist eine positiv semidefinite Matrix, d. h. für einen reellen Zufallsvektor, bzw. im Falle eines komplexen Zufallsvektors.
  • Alle Eigenwerte der Autokorrelationsmatrix sind reell und nichtnegativ.
  • Die Autokovarianzmatrix ist mit der Autokorrelationsmatrix wie folgt verbunden:
    bzw. für komplexe Zufallsvektoren:

Autokorrelation von deterministischen Signalen

In der Signalverarbeitung wird die obige Definition häufig ohne Normalisierung verwendet, d. h. ohne Subtraktion des Mittelwerts und Division durch die Varianz. Wenn die Autokorrelationsfunktion durch Mittelwert und Varianz normiert ist, wird sie manchmal als Autokorrelationskoeffizient oder Autokovarianzfunktion bezeichnet.

Autokorrelation eines zeitkontinuierlichen Signals

Gegeben ein Signal ist die kontinuierliche Autokorrelation meist definiert als das kontinuierliche Kreuzkorrelationsintegral von mit sich selbst, mit Verzögerung .

 

 

 

 

(Gleichung.6)

wobei stellt die komplex Konjugierte von . Beachten Sie, dass der Parameter im Integral eine Dummy-Variable ist und nur zur Berechnung des Integrals benötigt wird. Er hat keine spezifische Bedeutung.

Autokorrelation eines zeitdiskreten Signals

Die diskrete Autokorrelation bei der Verzögerung für ein zeitdiskretes Signal ist

 

 

 

 

(Gl.7)

Die obigen Definitionen gelten für Signale, die quadratisch integrierbar oder quadratisch summierbar sind, d. h. eine endliche Energie haben. Signale, die "ewig" dauern, werden stattdessen als Zufallsprozesse behandelt; in diesem Fall sind andere Definitionen erforderlich, die auf Erwartungswerten basieren. Für weiträumig stationäre Zufallsprozesse sind die Autokorrelationen definiert als

Bei nicht stationären Prozessen sind diese auch Funktionen von , oder .

Bei Prozessen, die auch ergodisch sind, kann der Erwartungswert durch den Grenzwert eines Zeitmittels ersetzt werden. Die Autokorrelation eines ergodischen Prozesses wird manchmal definiert als oder gleichgesetzt mit

Diese Definitionen haben den Vorteil, dass sie vernünftige, wohldefinierte Ein-Parameter-Ergebnisse für periodische Funktionen liefern, selbst wenn diese Funktionen nicht die Ausgabe stationärer ergodischer Prozesse sind.

Alternativ können Signale, die ewig andauern, durch eine Kurzzeit-Autokorrelationsfunktionsanalyse behandelt werden, wobei endliche Zeitintegrale verwendet werden. (Siehe Kurzzeit-Fourier-Transformation für ein verwandtes Verfahren).

Definition für periodische Signale

Wenn ist eine kontinuierliche periodische Funktion der Periode , die Integration von bis wird durch die Integration über ein beliebiges Intervall der Länge :

was äquivalent ist zu

Eigenschaften

Im Folgenden werden nur die Eigenschaften von eindimensionalen Autokorrelationen beschrieben, da die meisten Eigenschaften leicht vom eindimensionalen auf den mehrdimensionalen Fall übertragen werden können. Diese Eigenschaften gelten für weiträumig stationäre Prozesse.

  • Eine grundlegende Eigenschaft der Autokorrelation ist die Symmetrie, die anhand der Definition leicht zu beweisen ist. Im kontinuierlichen Fall,
    • ist die Autokorrelation eine gerade Funktion wenn eine reelle Funktion ist, und
    • die Autokorrelation eine hermitesche Funktion ist wenn eine komplexe Funktion ist.
  • Die kontinuierliche Autokorrelationsfunktion erreicht ihren Höhepunkt im Ursprung, wo sie einen reellen Wert annimmt, d. h. für jede Verzögerung , . Dies ist eine Folge der Umlagerungsungleichung. Das gleiche Ergebnis gilt auch für den diskreten Fall.
  • Die Autokorrelation einer periodischen Funktion ist selbst periodisch mit der gleichen Periode.
  • Die Autokorrelation der Summe von zwei völlig unkorrelierten Funktionen (die Kreuzkorrelation ist Null für alle ) ist die Summe der Autokorrelationen jeder einzelnen Funktion.
  • Da die Autokorrelation eine besondere Form der Kreuzkorrelation ist, weist sie alle Eigenschaften der Kreuzkorrelation auf.
  • Durch die Verwendung des Symbols zur Darstellung der Faltung und ist eine Funktion, die die Funktion und ist definiert als ist, kann die Definition für kann wie folgt geschrieben werden:

Mehrdimensionale Autokorrelation

Die mehrdimensionale Autokorrelation wird auf ähnliche Weise definiert. In drei Dimensionen wäre die Autokorrelation eines quadratsummierbaren diskreten Signals zum Beispiel

Wenn vor der Berechnung einer Autokorrelationsfunktion die Mittelwerte von den Signalen abgezogen werden, wird die resultierende Funktion gewöhnlich als Autokovarianzfunktion bezeichnet.

Effiziente Berechnung

Für Daten, die als diskrete Sequenz ausgedrückt werden, ist es häufig erforderlich, die Autokorrelation mit hoher Recheneffizienz zu berechnen. Eine Brute-Force-Methode auf der Grundlage der Signalverarbeitungsdefinition kann verwendet werden, wenn die Signalgröße klein ist. Um beispielsweise die Autokorrelation der realen Signalfolge zu berechnen (d. h. , und für alle anderen Werte von i) von Hand zu berechnen, erkennen wir zunächst, dass die soeben gegebene Definition dasselbe ist wie die "übliche" Multiplikation, jedoch mit Rechtsverschiebungen, wobei jede vertikale Addition die Autokorrelation für bestimmte Verzögerungswerte ergibt:

Die erforderliche Autokorrelationssequenz ist also , wobei und die Autokorrelation für andere Lag-Werte gleich Null ist. Bei dieser Berechnung führen wir während der Addition keine Übertragsoperation durch, wie es bei der normalen Multiplikation üblich ist. Man beachte, dass man die Anzahl der erforderlichen Operationen halbieren kann, indem man die inhärente Symmetrie der Autokorrelation ausnutzt. Wenn das Signal zufällig periodisch ist, d.h. dann erhalten wir eine zirkuläre Autokorrelation (ähnlich der zirkulären Faltung), bei der sich die linken und rechten Enden der vorherigen Autokorrelationssequenz überlappen und ergibt, die die gleiche Periode wie die Signalsequenz hat Das Verfahren kann als eine Anwendung der Faltungseigenschaft der Z-Transformation eines diskreten Signals betrachtet werden.

Während der Brute-Force-Algorithmus der Ordnung n2 entspricht, gibt es mehrere effiziente Algorithmen, die die Autokorrelation in der Ordnung n log(n) berechnen können. Das Wiener-Khinchin-Theorem ermöglicht beispielsweise die Berechnung der Autokorrelation aus den Rohdaten X(t) mit zwei schnellen Fourier-Transformationen (FFT):

wobei IFFT die inverse schnelle Fourier-Transformation bezeichnet. Das Sternchen steht für komplex konjugiert.

Alternativ kann eine multiple τ-Korrelation durchgeführt werden, indem für niedrige τ-Werte eine Brute-Force-Berechnung durchgeführt wird und dann die X(t)-Daten schrittweise mit einer logarithmischen Dichte gebinnt werden, um höhere Werte zu berechnen, was zur gleichen n log(n)-Effizienz führt, jedoch mit geringerem Speicherbedarf.

Schätzung

Für einen diskreten Prozess mit bekanntem Mittelwert und bekannter Varianz, für den wir Folgendes beobachten Beobachtungen kann eine Schätzung des Autokorrelationskoeffizienten erhalten werden als

für jede positive ganze Zahl . Wenn der wahre Mittelwert und Varianz bekannt sind, ist diese Schätzung unvoreingenommen. Wenn der wahre Mittelwert und die wahre Varianz des Prozesses nicht bekannt sind, gibt es mehrere Möglichkeiten:

  • Wenn und Wenn der Mittelwert und die Varianz des Prozesses durch die Standardformeln für den Stichprobenmittelwert und die Stichprobenvarianz ersetzt werden, handelt es sich um eine verzerrte Schätzung.
  • Eine periodogrammbasierte Schätzung ersetzt in der obigen Formel durch . Diese Schätzung ist immer verzerrt, hat jedoch in der Regel einen kleineren mittleren quadratischen Fehler.
  • Weitere Möglichkeiten ergeben sich aus der getrennten Behandlung der beiden Datenteile und getrennt zu behandeln und separate Stichprobenmittelwerte und/oder Stichprobenvarianzen zu berechnen, die bei der Definition der Schätzung verwendet werden.

Der Vorteil von Schätzungen des letzten Typs besteht darin, dass die Menge der geschätzten Autokorrelationen als eine Funktion von eine Funktion bilden, die eine gültige Autokorrelation in dem Sinne ist, dass es möglich ist, einen theoretischen Prozess mit genau dieser Autokorrelation zu definieren. Bei anderen Schätzungen kann das Problem auftreten, dass, wenn sie zur Berechnung der Varianz einer Linearkombination der verwendet werden, kann sich die berechnete Varianz als negativ erweisen.

Analog zur Stichprobenkovarianz und Stichprobenkorrelation können auch die Stichprobenautokovarianz bzw. die Stichprobenautokorrelation bestimmt werden. Liegen die Daten einer stationären Zeitreihe vor, wird die unkorrigierte azyklische Stichprobenautokovarianz üblicherweise durch

geschätzt, wobei . Zu beachten ist hier die Konvention, die Summe durch statt durch zu teilen, um zu garantieren, dass die Folge der Stichprobenautokovarianzen positiv semidefinit ist. Für erhält man die unkorrigierte Stichprobenvarianz der Daten.

Die Stichprobenautokorrelation ergibt sich dann durch

mit . Die Berechnung der Standardfehler von Stichprobenautokorrelationen erfolgt meist anhand der Bartlett-Formel (siehe dazu: Korrelogramm).

Die unverzerrte azyklische Stichprobenkorrelation kann auf modernen Computern schneller im Fourierraum ausgerechnet werden (siehe auch Wiener-Chintschin-Theorem), indem das Signal mit Nullen verlängert ("Zero Padding"). Die angehängten Nullen bewirken, dass nicht die zyklische Stichprobenkorrelation berechnet wird (welche ein periodisches Signal annimmt), sondern die azyklische Stichprobenkorrelation:

Regressionsanalyse

Bei der Regressionsanalyse unter Verwendung von Zeitreihendaten wird die Autokorrelation einer interessierenden Variablen in der Regel entweder mit einem autoregressiven Modell (AR), einem Modell des gleitenden Durchschnitts (MA), ihrer Kombination als Modell des autoregressiven gleitenden Durchschnitts (ARMA) oder einer Erweiterung des letzteren, dem Modell des integrierten gleitenden Durchschnitts (ARIMA), modelliert. Bei mehreren zusammenhängenden Datenreihen werden die Vektor-Autoregression (VAR) oder ihre Erweiterungen verwendet.

Bei der gewöhnlichen kleinsten Quadratzahl (OLS) kann die Angemessenheit einer Modellspezifikation zum Teil dadurch überprüft werden, dass festgestellt wird, ob eine Autokorrelation der Regressionsresiduen vorliegt. Eine problematische Autokorrelation der Fehler, die selbst unbeobachtet sind, kann im Allgemeinen erkannt werden, weil sie eine Autokorrelation in den beobachtbaren Residuen erzeugt. (Fehler werden in der Ökonometrie auch als "Fehlerterme" bezeichnet.) Die Autokorrelation der Fehler verletzt die Annahme der gewöhnlichen kleinsten Quadrate, dass die Fehlerterme unkorreliert sind, was bedeutet, dass das Gauß-Markov-Theorem nicht gilt und dass die OLS-Schätzer nicht mehr die besten linearen unvoreingenommenen Schätzer (BLUE) sind. Zwar werden die OLS-Koeffizientenschätzungen dadurch nicht verzerrt, aber die Standardfehler werden tendenziell unterschätzt (und die t-Werte überschätzt), wenn die Autokorrelationen der Fehler bei niedrigen Verzögerungen positiv sind.

Der traditionelle Test für das Vorhandensein einer Autokorrelation erster Ordnung ist die Durbin-Watson-Statistik oder, wenn die erklärenden Variablen eine verzögerte abhängige Variable enthalten, die Durbin's h-Statistik. Die Durbin-Watson-Statistik kann jedoch linear auf die Pearson-Korrelation zwischen den Werten und ihren Verzögerungen abgebildet werden. Ein flexiblerer Test, der Autokorrelation höherer Ordnungen abdeckt und unabhängig davon anwendbar ist, ob die Regressoren Verzögerungen der abhängigen Variable enthalten oder nicht, ist der Breusch-Godfrey-Test. Dazu wird eine Hilfsregression durchgeführt, bei der die Residuen, die sich aus der Schätzung des interessierenden Modells ergeben, auf (a) die ursprünglichen Regressoren und (b) k Verzögerungen der Residuen regressiert werden, wobei "k" die Ordnung des Tests ist. Die einfachste Version der Teststatistik aus dieser Hilfsregression ist TR2, wobei T der Stichprobenumfang und R2 das Bestimmtheitsmaß ist. Unter der Nullhypothese, dass keine Autokorrelation vorliegt, ist diese Statistik asymptotisch verteilt als mit k Freiheitsgraden.

Zu den Reaktionen auf eine Autokorrelation ungleich Null gehören die verallgemeinerte kleinste Quadrate und der Newey-West-HAC-Schätzer (Heteroskedastizität und Autokorrelation konsistent).

Bei der Schätzung eines Modells des gleitenden Durchschnitts (MA) wird die Autokorrelationsfunktion verwendet, um die angemessene Anzahl der einzubeziehenden verzögerten Fehlerterme zu bestimmen. Dies beruht auf der Tatsache, dass für einen MA-Prozess der Ordnung q gilt für , und für .

Anwendungen

  • Die Autokorrelationsanalyse wird häufig in der Fluoreszenzkorrelationsspektroskopie eingesetzt, um einen quantitativen Einblick in die Diffusion auf molekularer Ebene und in chemische Reaktionen zu erhalten.
  • Eine weitere Anwendung der Autokorrelation ist die Messung optischer Spektren und die Messung von Lichtimpulsen sehr kurzer Dauer, die von Lasern erzeugt werden, beides mit optischen Autokorrelatoren.
  • Die Autokorrelation wird zur Analyse dynamischer Lichtstreuungsdaten verwendet, was insbesondere die Bestimmung der Partikelgrößenverteilung von Partikeln oder Mizellen im Nanometerbereich ermöglicht, die in einer Flüssigkeit suspendiert sind. Ein Laser, der in das Gemisch strahlt, erzeugt ein Fleckenmuster, das durch die Bewegung der Partikel entsteht. Die Autokorrelation des Signals kann im Hinblick auf die Diffusion der Partikel analysiert werden. Wenn man die Viskosität der Flüssigkeit kennt, kann man daraus die Größe der Partikel berechnen.
  • Wird im GPS-System verwendet, um die Ausbreitungsverzögerung oder Zeitverschiebung zwischen dem Zeitpunkt der Übertragung des Trägersignals an die Satelliten und dem Zeitpunkt des Empfängers am Boden zu korrigieren. Dies geschieht, indem der Empfänger ein Nachbildungssignal des 1.023-Bit-C/A-Codes (Coarse/Acquisition) erzeugt und Zeilen von Code-Chips [-1,1] in Zehnerpaketen oder 10.230 Chips (1.023 × 10) generiert, die sich im Laufe der Zeit leicht verschieben, um die Doppler-Verschiebung des eingehenden Satellitensignals auszugleichen, bis das Nachbildungssignal des Empfängers und die Codes des Satellitensignals übereinstimmen.
  • Die Intensität der Röntgenkleinwinkelstreuung eines nanostrukturierten Systems ist die Fouriertransformation der räumlichen Autokorrelationsfunktion der Elektronendichte.
  • In der Oberflächenforschung und der Rastersondenmikroskopie wird die Autokorrelation verwendet, um eine Verbindung zwischen der Oberflächenmorphologie und den funktionalen Eigenschaften herzustellen.
  • In der Optik geben normalisierte Autokorrelationen und Kreuzkorrelationen den Grad der Kohärenz eines elektromagnetischen Feldes an.
  • In der Signalverarbeitung kann die Autokorrelation Informationen über sich wiederholende Ereignisse wie musikalische Takte (z. B. zur Bestimmung des Tempos) oder Pulsarfrequenzen liefern, auch wenn sie nicht die zeitliche Position des Taktes bestimmen kann. Sie kann auch verwendet werden, um die Tonhöhe eines musikalischen Tons zu schätzen.
  • Bei Musikaufnahmen wird die Autokorrelation als Algorithmus zur Tonhöhenerkennung vor der Gesangsverarbeitung, als Verzerrungseffekt oder zur Beseitigung unerwünschter Fehler und Ungenauigkeiten eingesetzt.
  • Die räumliche Autokorrelation wird von Röntgenbeugern über die Patterson-Funktion verwendet, um die "Fourier-Phaseninformation" über die Position der Atome zu erhalten, die durch die Beugung allein nicht verfügbar ist.
  • In der Statistik hilft die räumliche Autokorrelation zwischen Probenorten auch bei der Schätzung von Mittelwertunsicherheiten, wenn eine heterogene Population untersucht wird.
  • Der SEQUEST-Algorithmus zur Analyse von Massenspektren nutzt die Autokorrelation in Verbindung mit der Kreuzkorrelation, um die Ähnlichkeit eines beobachteten Spektrums mit einem idealisierten Spektrum zu bewerten, das ein Peptid darstellt.
  • In der Astrophysik wird die Autokorrelation zur Untersuchung und Charakterisierung der räumlichen Verteilung von Galaxien im Universum und bei Multiwellenlängenbeobachtungen von Röntgendoppelsternen mit geringer Masse verwendet.
  • Bei Paneldaten bezieht sich die räumliche Autokorrelation auf die Korrelation einer Variablen mit sich selbst im Raum.
  • Bei der Analyse von Markov-Chain-Monte-Carlo-Daten muss die Autokorrelation zur korrekten Fehlerbestimmung berücksichtigt werden.
  • In den Geowissenschaften (insbesondere in der Geophysik) kann sie zur Berechnung eines seismischen Autokorrelationsattributs aus einer seismischen 3D-Vermessung des Untergrunds verwendet werden.
  • In der medizinischen Ultraschallbildgebung wird die Autokorrelation zur Darstellung des Blutflusses verwendet.
  • Bei der intertemporalen Portfolioauswahl kann das Vorhandensein oder Fehlen einer Autokorrelation in der Rendite eines Vermögenswerts den optimalen Anteil des Portfolios beeinflussen, der in diesem Vermögenswert gehalten werden soll.
  • Die Autokorrelation wurde zur genauen Messung der Frequenz des Stromnetzes in numerischen Relais verwendet.

Genutzt wird die Autokorrelation u. a. in der Regressionsanalyse, der Zeitreihenanalyse und in der Bildverarbeitung. Beispielsweise werden in der Regressionsanalyse die Störgrößen, also die Abweichungen der Beobachtungswerte von der wahren Regressionsgeraden, als Folge von identisch verteilten Zufallsvariablen interpretiert. Damit die Regressionsanalyse sinnvolle Ergebnisse liefert, müssen die Störgrößen unkorreliert sein (was mit dem Portmanteau-Test kontrolliert werden kann). In der Zeitreihenanalyse wird die Autokorrelationsfunktion zusammen mit der partielle Autokorrelationsfunktion häufig zur Identifikation von ARMA-Modellen verwendet.

Serielle Abhängigkeit

Die serielle Abhängigkeit ist eng mit dem Begriff der Autokorrelation verbunden, stellt jedoch ein eigenes Konzept dar (siehe Korrelation und Abhängigkeit). Insbesondere ist es möglich, dass eine serielle Abhängigkeit, aber keine (lineare) Korrelation vorliegt. In einigen Bereichen werden die beiden Begriffe jedoch als Synonyme verwendet.

Eine Zeitreihe einer Zufallsvariablen weist serielle Abhängigkeit auf, wenn der Wert zu einem bestimmten Zeitpunkt in der Reihe statistisch von dem Wert zu einem anderen Zeitpunkt abhängig ist . Eine Reihe ist seriell unabhängig, wenn zwischen keinem Paar eine Abhängigkeit besteht.

Wenn eine Zeitreihe stationär ist, dann bedeutet die statistische Abhängigkeit zwischen dem Paar impliziert, dass zwischen allen Wertepaaren mit der gleichen Verzögerung eine statistische Abhängigkeit besteht .

Autokorrelation in der Signalverarbeitung

Impuls-AKF

Für Signale mit endlichem Energieinhalt – sogenannte Energiesignale – erweist es sich als sinnvoll, folgende Definition zu verwenden:

.

Eigenschaften

AKF und Periodizitäten

Die einer periodischen AKF () zugrundeliegende Funktion ist selbst periodisch, wie folgender Beweis zeigt:

.

Umgekehrt gilt auch für periodische Funktionen , dass ihre AKF periodisch ist:

.

Somit lässt sich schließen, dass eine Funktion und ihre AKF stets dieselbe Periodizität aufweisen:

.

Gibt es Wiederholungen im Signal, so ergeben sich Maxima der Autokorrelationsfunktion bei den Zeitverschiebungen, die der Wiederholungsdauer von Erscheinungen im Signal entsprechen. So können z. B. versteckte periodische Anteile und Echoerscheinungen in Signalen detektiert werden.

Maximum

Die AKF hat unabhängig ihrer Definition bei ihr Maximum:

Für die AKF wird dieser Wert als Effektivwertquadrat, für die Impuls-AKF als Signalenergie bezeichnet.

Häufig wird die Autokorrelationsfunktion auch auf den Maximalwert bei normiert angegeben:

Der Betrag dieser normierten Autokorrelationsfunktion kann Werte zwischen 0 und 1 annehmen. Man spricht dabei auch vom zeitlichen Autokorrelationskoeffizienten einer Zufallsvariablen mit der zeitlich verschobenen Zufallsvariablen .

Abfallverhalten

Für große Zeiten und nicht selbst periodische Funktionen x gilt:

.

Beispiele

Das untere Signal besitzt identischen zeitlichen Verlauf, ist aber um Δs verspätet
Weißlichtinterferometrie

Beispiel 1

Die Funktionen im nebenstehenden Bild sind aus sinusförmigen Abschnitten einheitlicher Frequenz zusammengesetzt. An den Stoßstellen treten Phasensprünge auf. Zur Berechnung der Korrelation multipliziert man punktweise beide Signalwerte und addiert die Produkte über einen längeren Zeitraum. Bei der gezeichneten Verzögerung Δs sind in den rot markierten Bereichen alle Einzelprodukte positiv oder null, in den dazwischen liegenden Bereichen meist negativ. Nur für Δs = 0 sind alle Einzelprodukte positiv, die Korrelationsfunktion erreicht ihren maximalen Wert.

Nebenbemerkung: Addiert man beide Signale, können stückweise konstruktive bzw. destruktive Interferenz auftreten.

Beispiel 2

Bei der Optischen Kohärenztomografie wird Licht besonders geringer Kohärenzlänge verwendet, weil die Autokorrelation nur dann ein merklich von Null abweichendes Ergebnis liefert, wenn die Länge von Messarm und Referenzarm gut übereinstimmen. Bei größerer Abweichung variieren die Ergebnisse der Autokorrelation um Null (Weißlichtinterferometrie).