3.6 Indipendenza

In questa sezione estendiamo il concetto di indipendenza tra sistemi di alternative riformulandolo in termini di variabili aleatorie e delle loro densità (discrete e continue).

La Definizione 2.8 si traduce immediatamente da sistemi di alternative finiti a variabili aleatorie discrete, nel seguente modo.

Definizione 3.7 (indipendenza, caso discreto) Siano \(X_1\in E_1\), \(X_k\in E_k\) variabili aleatorie con densità discreta (rispetto ad una informazione nota \(I\)). Allora esse si dicono indipendenti (condizionatamente ad \(I\)) se vale \[ P( X_1 =x_1, X_2 = x_2, \ldots, X_k=x_k|I) = \prod_{i=1}^k P(X_i = x_i|I),\] per ogni \(x_1 \in E_1\), \(x_2 \in E_2\), …, \(x_k \in E_k\), o equivalentemente, per ogni sottoinsieme \(J \subseteq \cur{1, \ldots, k}\), \[ P( X_j =x_j \text{ per ogni $j \in J$} |I,X_\ell = x_\ell \text{ per ogni $\ell \notin J$} ) = P(X_j = x_j \text{ per ogni $j \in J$} |I ). \]

Notiamo che il membro a sinistra è la densità discreta della variabile congiunta \((X_1, \ldots, X_k)\), mentre a destra abbiamo il prodotto delle densità discrete delle marginali. Questo suggerisce come definire l’indipendenza probabilistica tra \(k\) variabili aventi densità continua, nel seguente modo.

Definizione 3.8 (indipendenza, caso continuo) Siano \(X_1\in \R^{d_1}\), \(X_k\in \R^{d_k}\) variabili aleatorie con densità continua (rispetto ad una informazione nota \(I\)). Allora esse si dicono indipendenti (condizionatamente ad \(I\)) se la variabile congiunta \(X = (X_1, \ldots, X_k)\) ammette densità continua e vale \[ p(X = x| I ) = p( X_1 =x_1, X_2 = x_2, \ldots, X_k=x_k|I) = \prod_{i=1}^k p(X_i = x_i|I),\] per ogni \(x_1 \in \R^{d_1}\), \(x_2 \in \R^{d_2}\), …, \(x_k \in \R^{d_k}\), o equivalentemente, per ogni sottoinsieme \(J \subseteq \cur{1, \ldots, k}\), \[ p( X_j =x_j \text{ per ogni $j \in J$} |I,X_\ell = x_\ell \text{ per ogni $\ell \notin J$} ) = p(X_j = x_j \text{ per ogni $j \in J$} |I ). \]

Possiamo immaginare definizioni valide anche per i casi “misti”, in cui alcune variabili sono discrete e altre continue. Tuttavia non è necessario, in quanto è possibile dare una definizione generale di variabili aleatorie indipendenti, che si dimostra equivalente a quelle date sopra nei casi speciali, ma copre anche altri casi. Il vantaggio delle definizioni sopra è che sono facili da verificare e coprono casi molto frequenti.

Definizione 3.9 (indipendenza, caso generale) Siano \(X_1\in E_1\), \(X_k\in E_k\) variabili aleatorie (generali). Allora esse si dicono indipendenti (condizionatamente ad una informazione nota \(I\)) se vale \[ P( X_1 \in U_1, X_2 \in U_2, \ldots, X_k \in U_k |I) = \prod_{i=1}^k P(X_i \in U_i |I),\] per ogni \(U_1 \subseteq E_1\), \(U_2 \subseteq E_2\), … \(U_k \subseteq E_k\), o equivalentemente, per ogni sottoinsieme \(J \subseteq \cur{1, \ldots, k}\), \[ P( X_j \in U_j \text{ per ogni $j \in J$} |I,X_\ell\in U_\ell \text{ per ogni $\ell \notin J$} ) = P(X_j \in U_j \text{ per ogni $j \in J$} |I ). \]

Ricordiamo che, per due affermazioni \(A\), \(B\), l’indipendenza probabilisticà (condizionatamente ad \(I\)) si esprime equivalentemente richiedendo che \[ \frac{ P(A| I, B)}{P(A|I)} = \frac{P(B|I,A)}{P(B|I)} =1,\] che si interpreta nel seguente modo: aggiungere l’informazione \(B\) ad \(I\) non cambia il grado di fiducia in \(A\) (e viceversa). Per ottenere una caratterizzazione simile nel caso di variabili aleatorie, ossia ridurci a coppie di affermazioni, dobbiamo introdurre il concetto di “informazione” associata ad una famiglia di variabili aleatorie \(\cur{Y_1, \ldots, Y_m}\), definita come una qualsiasi affermazione riguardante tali variabili (e solo quelle). Formalmente, si può considerare la variabile congiunta \(Y = (Y_1, \ldots, Y_m)\) e dire che una informazione \(A\) associata alle variabili \(\cur{Y_1, \ldots, Y_m}\) è una qualsiasi affermazione del tipo \[\cur{Y \in U}, \quad \text{dove $U$ è un sottoinsieme dei possibili valori di $Y$.}\]

Con questa notazione possiamo caratterizzare ulteriormente l’indipendenza probabilistica tra \(k\) variabili aleatorie (non diamo la dimostrazione di questo risultato, piuttosto tecnico).

Teorema 3.3 Siano \(X_1\in E_1\), \(X_k\in E_k\) variabili aleatorie (generali). Allora esse sono indipendenti (condizionatamente ad una informazione nota \(I\)) se e solo se, dato un qualsiasi sottoinsieme \(J \subseteq \cur{1, \ldots, k}\), qualsiasi affermazione \(A\) associata alle variabili \(\cur{X_j}_{j \in J}\) è indipendente (sapendo \(I\)) da qualsiasi affermazione \(B\) associata alle rimanenti variabili \(\cur{X_\ell}_{\ell \in \cur{1, \ldots, k}\setminus J}\).

Una conseguenza importante è la seguente.

Corollario 3.1 Date \(X_1\in E_1\), \(X_k\in E_k\) variabili aleatorie indipendenti e \(J \subseteq \cur{1, \ldots, k}\), ogni variabile ottenuta tramite funzione delle \((X_j)_{j \in J}\), è indipendente da ogni variabile ottenuta tramite funzione delle \((X_\ell)_{\ell \notin J}\).

La dimostrazione è immediata, poiché ogni informazione associata ad una variabile composta delle \((X_j)_{j \in J}\) è in particolare associata alle \(\cur{X_j}_{j \in J}\) (e lo stesso per le rimanenti variabili).

Abbiamo evidenziato l’informazione nota \(I\) in tutte le formule sopra per ricordare che l’indipendenza tra variabili aleatorie è strettamente legata all’informazione di cui si dispone. Spesso tale informazione è del tipo \(\cur{Y=y}\), per una qualche variabile aleatoria \(Y\), e le variabili \((X_i)_{i=1}^k\) risultato indipendenti per qualsiasi valore \(y\) tra quelle che \(Y\) può assumere. In questo caso, si dice che le variabili \((X_i)_{i=1}^k\) sono indipendenti condizionatamente ad \(Y\) (ed eventualmente ulteriore informazione \(I\)).

3.6.1 Esercizi

Esercizio 3.11 Siano \(X\), \(Y\) variabili aleatorie indipendenti a valori interi \(\mathbb{Z}\). Posta \(Z = X+Y\), mostrare che vale la formula di convoluzione per la densità discreta, \[ P( Z = z ) = \sum_{x} P(X=x)P(Y = z-x).\] Calcolare (eventualmente aiutandosi con R) la densità discreta della somma di due variabili indipendenti uniformi su \(\cur{1,2,\ldots, 10}\).