Autocorrelación

La correlación es una herramienta matemática que se utiliza a menudo en el procesamiento de señales . Es la correlación cruzada de una señal por sí misma. La autocorrelación permite detectar regularidades, perfiles repetidos en una señal como una señal periódica perturbada por mucho ruido , o una frecuencia fundamental de una señal que en realidad no contiene este fundamental, pero lo involucra con varios de sus armónicos.

Definiciones

General

Nota: A menudo se crea confusión entre la autocovarianza y la autocorrelación. Estas dos nociones generalizan las nociones clásicas de covarianza teniendo como dimensión la dimensión de la variable al cuadrado y del coeficiente de correlación entre y . Las siguientes consideraciones utilizan el lenguaje más utilizado por los profesionales, sin división por varianza. También hay dos definiciones fundamentalmente diferentes.

Un proceso estocástico discreto o continuo corresponde a una “autocorrelación” estadística que generaliza la noción de covarianza. En el caso de un proceso continuo (en cualquier generalidad compleja) , la función de autocorrelación estadística se define como:

RX(t1,t2)=mi[X(t1).X∗(t2)].{\ Displaystyle R_ {X} (t_ {1}, t_ {2}) = E [X (t_ {1}). X ^ {*} (t_ {2})].} En el caso de una señal estacionaria, podemos escribir: donde es el cambio de tiempo y la expectativa matemática se define a partir de la densidad de probabilidad.

A partir de una señal , podemos definir la autocorrelación temporal reemplazando la media general por una media temporal:

RX(τ)=X(t)X∗(t-τ)¯.{\ Displaystyle R_ {x} (\ tau) = {\ overline {x (t) x ^ {*} (t- \ tau)}}.} Cuando la señal se considera como la realización de un proceso estacionario ergódico , la autocorrelación temporal es idéntica a la autocorrelación estadística. Puede usarse para calcular el contenido de frecuencia de la señal (ver densidad espectral ). En algunos problemas, permite analizar la señal sin hacer referencia a su contenido de frecuencia.

Estadísticas

En estadística , la autocorrelación de un proceso o serie de tiempo discreto es simplemente la correlación del proceso con una versión de sí mismo con retraso en el tiempo. Si es un proceso de expectativa estacionario , entonces la definición es:

R(k)=1σ2mi[(XI-μ)(XI+k-μ)],{\ Displaystyle R (k) = {\ frac {1} {\ sigma ^ {2}}} \ mathbb {E} {\ bigl [} (X_ {i} - \ mu) (X_ {i + k} - \ mu) {\ bigr]},} donde es la expectativa matemática , es el desfase de tiempo, es la media de y es la varianza de . Es una función con valores de intervalo que indica una correlación perfecta (las señales se superponen exactamente cuando el tiempo cambia ) e indica una anticorrelación perfecta. Es práctico en muchas disciplinas trazar la normalización y utilizar el término autocorrelación indiscriminadamente con el de autocovarianza .

Procesamiento de la señal

En el procesamiento de señales, para una señal dada , la autocorrelación continua es la correlación cruzada continua de sí misma, en el intervalo de tiempo , y se define como:

RF(τ)=F∗(⋅-τ)∘F(⋅)=∫-∞∞F(t+τ)F∗(t)Dt=∫-∞∞F(t)F∗(t-τ)Dt,{\ Displaystyle R_ {f} (\ tau) = f ^ {*} (\ cdot - \ tau) \ circ f (\ cdot) = \ int _ {- \ infty} ^ {\ infty} f (t + \ tau) f ^ {*} (t) \ mathrm {d} t = \ int _ {- \ infty} ^ {\ infty} f (t) f ^ {*} (t- \ tau) \ mathrm {d} t,} donde representa el conjugado complejo y representa el operador de convolución ( ). Formalmente, la autocorrelación discreta para el intervalo de tiempo y la señal es: R[j]=∑no(X[no]-metro)(X∗[no-j]-metro)=mi[(X[no]-metro)(X∗[no-j]-metro)],{\ Displaystyle R [j] = \ sum _ {n} (x [n] -m) (x ^ {\ ast} [nj] -m) = \ mathbb {E} {\ bigl [} (x [n ] -m) (x ^ {\ ast} [nj] -m) {\ bigr]},} donde es el valor medio (valor esperado) de . A menudo, las autocorrelaciones se calculan para una señal centrada en cero. Es decir una señal cuyo valor medio es cero. La autocorrelación se define entonces por: R[j]=∑noX[no]X∗[no-j]=mi[X[no]X∗[no-j]].{\ Displaystyle R [j] = \ sum _ {n} x [n] x ^ {\ ast} [nj] = \ mathbb {E} {\ bigl [} x [n] x ^ {\ ast} [nj ] {\ Gran R]}.} La autocorrelación multidimensional se define de manera similar. Por ejemplo, en tres dimensiones la autocorrelación se convierte en: R(j,k,ℓ)=∑no,q,r(X[no,q,r]-metro)(X[no-j,q-k,r-ℓ]-metro)=mi[(X[no,q,r]-metro)(X[no-j,q-k,r-l]-metro)].{\ Displaystyle R (j, k, \ ell) = \ sum _ {n, q, r} (x [n, q, r] -m) (x [nj, qk, r- \ ell] -m) = \ mathbb {E} {\ bigl [} (x [n, q, r] -m) (x [nj, qk, rl] -m) {\ bigr]}.}

Propiedades

A continuación, describiremos únicamente las propiedades de autocorrelación unidimensional, ya que la mayoría de las propiedades se extienden fácilmente de casos unidimensionales a multidimensionales.

desigualdad de Cauchy-Schwarz . Se obtiene el mismo resultado para un caso discreto. densidad espectral de potencia mediante la transformación de Fourier : RF(τ)=F-1{SF(ω)}(τ)⟺SF(ω)=F{RF(τ)}(ω).{\ Displaystyle R_ {f} (\ tau) = {\ mathcal {F}} ^ {- 1} \ {S_ {f} (\ omega) \} (\ tau) \ Longleftrightarrow S_ {f} (\ omega) = {\ mathcal {F}} \ {R_ {f} (\ tau) \} (\ omega).}

Aplicaciones

El siguiente ejemplo muestra la señal de un archivo de sonido MIDI Beau Danube azul (izquierda) y su autocorrelación (solo los primeros 4 segundos).