7.1 Funzione di autocovarianza e stazionarietà

Dato un processo stocastico \((X_t)_{t \in \mathcal{T}}\) avente come insieme degli stati \(E = \R\), si può considerare il suo valor medio al variare del tempo, definendo così la funzione di media del processo, \[ t \in \mathcal{T} \mapsto \E{X_t},\] e similmente per la covarianza tra due tempi qualsisasi, \[ (s,t ) \in \mathcal{T}^2 \mapsto \Cov{X_s, X_t} = K_{X_s X_t}, \] definendo così la funzione di autocovarianza del processo \(X\). Una notazione piuttosto comune per tale funzione è \[ C(s,t) = \Cov{X_s, X_t},\] qualora sia inteso il processo \(X\) considerato. In alternativa si può indicarla con \(K_{XX}(s,t)\). Notiamo che \[ C(s,s) = \Cov{X_s, X_s} = \Var{X_s}\] è la varianza.

Remark. A volte si considera anche la funzione \[ R(s,t) = \E{ X_s X_t},\] che è legata alle funzioni di autocovarianza e di media tramite la formula alternativa per il calcolo della covarianza: \[ R(s,t) = C(s,t) + \E{X_s} \E{X_t}\] Una terza funzione collegata è la funzione di autocorrelazione (in inglese autocorrelation function, abbreviata spesso con ACF) data da \[ (s,t) \in \mathcal{T}^2 \mapsto \operatorname{ACF}(s,t) = \rho_{X_s X_t} = \frac{ \Cov{X_s, X_t}}{ \sqrt{ \Var{X_s} \Var{X_t}} }, \] che ha il vantaggio di essere sempre a valori in \([-1,1]\), essendo un coefficiente di correlazione. Ricordiamo che valori vicini ad \(1\) indicano una forte dipendenza lineare tra le variabili, informalmente \(\operatorname{ACF}(s,t)\approx 1\) indica che che \(X_s \approx a X_t +b\) per opportune costanti \(a\), \(b\) reali.

Remark. Nel caso di \(X\) a valori vettoriali, ossia se \(E = \R^d\), la funzione di media è a valori in \(\R^d\), mentre l’autocovarianza \(\Cov{X_s, X_t}\) si estende alla funzione di covarianza incrociata (o cross-covarianza, cross-covariance in inglese), per ogni coppia di componenti \(i\), \(j \in \cur{1, \ldots, d}\), definita come \[K_{X_i X_j}(s,t) = \Cov{X_{i,s}, X_{j,t}},\] ossia la covarianza tra la componente \(i\) del processo al tempo \(s\) e la componente \(j\) al tempo \(t\). Ci limitiamo tuttavia in questo capitolo allo studio di processi a valori reali.

Se il processo è stazionario, le funzioni di media e covarianza dipendono da “un parametro” in meno, ossia la media è costante, mentre la covarianza dipende solo dalla differenza dei tempi. Vale infatti il seguente risultato.

Proposizione 7.1 Se \(\mathcal{T} = \cur{0,1,2,\ldots, n}\) oppure \(\mathcal{T} =\mathbb{N}\) e il processo \((X_t)_{t \in \mathcal{T}}\) è stazionario, allora il valor medio è costante nel tempo, \[ \E{X_t} = \E{X_0} \quad \text{per ogni $t\in \mathcal{T}$,}\] mente l’autocovarianza dipende solamente dalla differenza (assoluta) dei due istanti, \[ C(s,t) = C(0, |t-s|), \quad \text{per ogni $s$, $t \in \mathcal{T}$.}\] In particolare, la varianza \(C(s,s) = C(0,0)\) è costante.

Proof. Il valor medio di \(X_t\) dipende soltanto dalla legge marginale del processo al tempo \(t\) (ad esempio dalla densità discreta o continua) e quindi per stazionarietà \(\E{X_t} = \E{X_0}\). Per l’autocovarianza, supponiamo senza perdita di generalità che \(t \ge s\) e notiamo che \[ \Cov{ X_s, X_t } = \E { (X_s - \E{X_0})(X_t -\E{X_0})} = \E{ g(X_s,X_t)},\] avendo usato il fatto che \(\E{X_s}= \E{X_t} = \E{X_0}\) e la funzione \[g (x, y) = (x- \E{X_0}) (y - \E{X_0}).\] Ricordando che la stazionarietà implica che la legge congiunta di \((X_s, X_t)\) coincide con quella di \((X_0, X_{t-s})\), segue che \[ \Cov{X_s, X_t } = \E{ g(X_s, X_t)} = \E{ g(X_0, X_{t-s})}= C(0, t-s).\]

Il risultato sopra motiva il seguente indebolimento del concetto di stazionarietà, in cui ci si limita a considerazioni sulla media e l’autocovarianza.

Definizione 7.1 Supponiamo che \(\mathcal{T}=\cur{0,1, \ldots, n}\) oppure \(\mathcal{T} = \mathbb{N}\). Un processo \((X_t)_{t \in \mathcal{T}}\) è stazionario in senso lato, se \[ \E{X_t} = \E{X_0} \quad \text{per ogni $t$,}\] e \[ C(s,t) = C(0, |t-s|), \quad \text{per ogni $s$, $t \in \mathcal{T}$.}\]

In generale questa nozione è più debole (ad esempio le informazioni sui momenti primi e secondi non implicano nulla sui momenti di ordine terzo, quarto ecc.). Per distinguere tra questa nozione e la vera e propria stazionarietà, a volte quest’ultima è detta stazionarietà in senso stretto.

Tuttavia, se il processo \(X\) è gaussiano, ossia ogni variabile congiunta \[(X_{t_1}, X_{t_2}, \ldots, X_{t_d}),\] per qualsiasi scelta \(t_1, t_2, \ldots, t_d \in \mathcal{T}\) è un vettore aleatorio gaussiano, allora dalla stazionarietà in senso lato segue la stazionarietà in senso stretto (la vera e propria stazionarietà). Questo perché, per ogni \(s \in \mathbb{T}\) tale che \(t_d+s \in \mathcal{T}\), i parametri di media e di covarianza delle variabili gaussiane vettoriali \[(X_{t_1}, X_{t_2}, \ldots, X_{t_d}) \quad \text{e} \quad (X_{t_1+s}, X_{t_2+s}, \ldots, X_{t_d+s})\] coincidono: il vettore delle medie è uguale per entrambi (vale per ciascuna variabile marginale \(\E{X_0}\)), mentre, per la matrice delle covarianze troviamo che \[ \Cov{X_{t_i}, X_{t_j} } = C(t_i, t_j) = C(0, |t_i-t_j|) = C(t_i+s, t_j+s) = \Cov{X_{t_i+s}, X_{t_j+s} }.\]