4.7 Funzione caratteristica
Ritornando alla motivazione per l’introduzione dei momenti \(\E{X^k}\) di una variabile aleatoria \(X\in \R\), ossia il calcolo approssimato di \(\E{g(X)}\) possiamo anche sfruttare approssimazioni di \(g(x)\) in una “base di funzioni” diversa dai polinomi. Una possibilità è data dalla teoria della trasformata di Fourier11, per cui ogni \(g\) sufficientemente regolare si può scrivere come trasformata inversa, tramite la formula di inversione \[ g(x) = \int_{-\infty}^\infty \hat{g}(\xi) e^{2 \pi i \xi x} d \xi,\] dove \(\hat{g}(\xi)\) è la trasformata (diretta) di Fourier, \[ \hat{g}(\xi)= \int_{-\infty}^\infty g(x) e^{-2 \pi i \xi x} d x.\] Posta \(\omega = 2 \pi \xi\) la frequenza angolare12 possiamo quindi approssimare l’integrale sopra con una certa somma finita, per opportuni coefficienti \(a_\omega\) (non aleatori) \[ g(x) \sim \sum_{\omega} a_\omega e^{i \omega x}\] e quindi, componendo con \(X\) e passando al valor medio, troviamo \[\E{g(X)} \sim \sum_{\omega} a_\omega \E{e^{i \omega X}}.\] In analogia con quanto visto per i momenti, possiamo quindi ridurre il problema (almeno quello che riguarda la variabile \(X\)) al calcolo dei numeri complessi \[ \E{e^{i \omega X}} = \E{\cos(\omega X)}+ i \E{\sin(\omega X)},\] al variare di \(\omega \in \R\). Notiamo che la notazione esponenziale evidenzia un’analogia con la \(\MGF_X\) (stiamo formalmente ponendo \(t = i \omega\)). Definiamo allora la seguente funzione.
Definizione 4.10 (funzione caratteristica) Data una variabile aleatoria \(X \in \R\), si definisce la sua funzione caratteristica \(\varphi_X: \R \to \mathbb{C}\), \[ \omega \mapsto \varphi_X(\omega) = \E{e^{i \omega X}}.\]
Diversamente dalla funzione generatrice dei momenti, si può mostrare che \(\varphi_X(\omega)\) è sempre un numero complesso ben definito, che si calcola tramite serie o integrale (se la densità di \(X\) è nota) \[ \varphi_X(\omega) = \E{e^{i \omega X}} = \begin{cases} \sum_{x \in \R} e^{i\omega x} P(X=x) & \text{se $X$ ha densità discreta,}\\ \int_{x \in \R} e^{i \omega x} p(X=x)dx & \text{se $X$ ha densità continua.} \end{cases} \tag{4.3}\]
L’integrale sopra, a meno di cambiare il segno a \(\omega\), è la proprio trasformata di Fourier della densità \(p(X=x)\), ossia \[ \varphi_X(\omega) = \widehat{p(X=\cdot)} (-\omega).\] Questa identificazione permette di sfruttare le formule note per la trasformata di Fourier di molte funzioni comuni.
La seguente proposizione si mostra in modo analogo a quanto fatto per la funzione generatrice dei momenti (tenendo conto tuttavia che abbiamo a che fare con quantità complesse, quindi il prodotto è inteso tra numeri complessi).
Proposizione 4.11 Siano \(X\), \(Y \in \R\) variabili aleatorie e \(a\), \(b\in \R\) costanti (rispetto all’informazione nota \(I\)). Allora 1. \(\varphi_{aX+b}(\omega)= e^{i \omega b} \varphi_{X}(a\omega)\) 2. Se \(X\), \(Y\) sono indipendenti, allora \(\varphi_{X+Y}(\omega) = \varphi_{X}(\omega)\varphi_{Y}(\omega)\).
Come per la funzione generatrice dei momenti, se si può derivare la funzione caratteristica in \(\omega =0\), si ottengono i momenti (a meno di potenze dell’unità immaginaria stavolta).
Teorema 4.2 Sia \(X \in \R\) tale che abbia momento di ordine \(k\) finito. Allora vale \[ \frac{d^k}{d^k \omega} \varphi_X(0) = i^k \E{X^k}.\]
La giustificazione (non rigorosa) segue ancora dalla formula di Taylor per l’esponenziale (di parametro complesso, stavolta): \[ e^{ i \omega x} = \sum_{k=0}^\infty \frac{(i \omega x)^k}{k!} = \sum_{k=0}^\infty x^k \frac{(i\omega)^k}{k!} ,\] e ripetendo gli stessi passaggi fatti per la funzione generatrice dei momenti.
Una proprietà estremamente importante della funzione caratteristica è che essa identifica la legge di \(X\). Questo non stupisce almeno nel caso di densità continue, perché la formula di inversione della trasformata di Fourier permette di ricavare \(p\), ma il seguente risultato – che non dimostriamo – è generale.
Teorema 4.3 Siano \(X\), \(Y \in \R\) variabili aleatorie. Se \(\varphi_X(\omega)= \varphi_Y(\omega)\) per ogni \(\omega \in \R\), allora \(X\) e \(Y\) hanno la stessa legge, ossia \[ P( X \in U) = P( Y \in U)\] per ogni \(U \subseteq \R\) (ad esempio \(U = [a,b]\) intervallo). In particolare, se \(X\) ha densità (discreta o continua) allora anche \(Y\) ha densità (uguale a quella di \(X\)).
Remark. Si può estendere il concetto di trasformata di Fourier e quindi di funzione caratteristica a variabili vettoriali \(X \in \R^d\). In questo caso, essa diventa una funzione di \(d\) variabili \((\omega_1, \omega_2, \ldots, \omega_d)\) (oppure di una singola variabile vettoriale \(\omega \in \R^d\)), ed è definita come \[ \varphi_{X}(\omega) = \E{e^{i t\cdot \omega}} = \E{ \exp \bra{ \sum_{i=1}^d\omega_i X_i}}.\] Si può mostrare, usando la definizione sopra, che vale \[ \varphi_{AX+b} (\omega) = e^{i b \cdot \omega} \varphi_X(A^T \omega)\] per qualsiasi matrice \(A \in \R^{k \times d}\) e vettore \(b \in \R^k\) (costanti rispetto all’informazione nota \(I\)). Inoltre, il Teorema 4.3 si estende anche al caso vettoriale: se due variabili \(X\), \(Y \in \R^d\) hanno la medesima funzione caratteristica (valutata in ogni \(\omega\in \R^d\)), allora hanno la stessa legge (e quindi densità, se si sa che una delle due ha densità).
4.7.1 Esercizi
Esercizio 4.18 Calcolare la funzione caratteristica di una variabile con densità discreta binomiale di parametri \((n,p)\). Derivare l’espressione trovata per calcolare media e varianza.
Esercizio 4.19 La funzione caratteristica di una variabile aleatoria reale \(X\) è data dall’espressione \[ \varphi_X(\omega) = \frac 1 2 + \frac 1 3 e^{i \omega} + \frac 1 6 e^{- i \omega}\] Calcolare media e deviazione standard di \(X\).