3.4 Variabile congiunta
Date due variabili aleatorie \(X \in E\), \(Y \in F\), volendo applicare una funzione della coppia \(g(x,y)\) per definire una variabile aleatoria composta \(g(X,Y)\), ci troviamo di fronte al seguente problema: come è definita la variabile congiunta \((X,Y)\) a valori nelle coppie ordinate \((x,y) \in E\times F\)?
La risposta è molto naturale.
Definizione 3.6 Se \(X \in E\), \(Y \in F\) sono variabili aleatorie associate ai sistemi di alternative \((\cur{X=x})_{x \in E}\), \((\cur{Y = y})_{y \in F}\), si definisce la variabile aleatoria congiunta \((X,Y)\) a valori in \(E \times F\) tramite il sistema di alternative \[ \cur{ (X,Y) = (x,y)} = \cur{X =x,Y=y} = \cur{X=x} \text{ e } \cur{Y = y}.\]
Si può dare una rappresentazione grafica mediante diagrammi di Venn, ricordando che un sistema di alternative individua una partizione dell’“universo” corrispondente all’informazione nota \(I\): le alternative relative alla variabile \(X\) sono “strisce” verticali, mentre quelle relative alla \(Y\) sono orizzontali, e ogni casella della “scacchiera” così ottenuta rappresenta un’alternativa associata alla variabile congiunta \((X,Y)\).
In questa costruzione, le variabili \(X\), \(Y\) (considerate separatamente) sono dette marginali della variabile congiunta \((X,Y)\). La domanda principale cui cerchiamo di rispondere è la seguente: come determinare la legge della variabile congiunta?
Cominciamo da un fatto più semplice: dalla legge congiunta è sempre possibile ottenere le leggi delle marginali, tramite composizione di opportune funzioni di proiezione. In particolare, la variabile \(X\) è ottenibile tramite la funzione \[ g: E\times F \to E, \quad (x,y) \mapsto x.\] Pertanto, se la variabile congiunta \((X,Y)\) ammette densità discreta, si ottiene che la densità discreta di \(X\) in \(x \in E\) è data dalla somma su tutti i possibili valori in \(g^{-1}(x)\), ossia le coppie del tipo \((x,y)\), al variare di \(y \in F\). Troviamo quindi \[ P(X = x|I) = \sum_{y \in F} P(X=x, Y=y|I) =\sum_{y \in F} P( (X,Y) =(x, y) |I).\]
Similmente, si trova \[ P(Y = y | I) = \sum_{x \in E} P( (X,Y) = (x,y) |I).\]
Per trattare il caso di una variabile congiunta \((X,Y)\) con densità continua, dobbiamo richiedere che \(E = \R^{d}\), \(F = \R^{k}\) in modo che \(E\times F = \R^{d+k}\). Supponendo che la variabile congiunta \((X,Y)\) ammetta densità continua \(p((X,Y) = (x,y)|I)\), con \(x \in \R^d\), \(y\in \R^k\), si può mostrare (usando la definizione che abbiamo dato) che la densità delle marginali si trova integrando sulle variabil “libere”: per la densità di \(X\), si ha \[ p(X = x | I) = \int_{\R^k} p( (X,Y)= (x,y) |I) d y,\] mentre \[ p(Y = y | I) = \int_{\R^d} p( (X,Y) = (x,y) |I) d x,\] avendo usato una notazione compatta per l’integrale in più variabili.
La domanda successiva è quindi se la conoscenza delle leggi delle variabili \(X\) e \(Y\) (separatamente) sia sufficiente per determinare la legge della variabile congiunta. Si vede immediatamente che questo è falso, considerando il seguente esempio di estrazioni dall’urna.
Esempio 3.16 Sia data un’urna contenente al solito \(N\) palline di cui \(R\) rosse e \(B\) blu (parametri noti). Si consideri una variabile \(X \in \cur{0,1}\) che indica se nella prima estrazione la pallina estratta è rossa, e una seconda variabile \(Y \in \cur{0,1}\) che indica se nella seconda estrazione la pallina è rossa. Sia che le estrazioni siano con oppure senza rimpiazzo, abbiamo visto nel Capitolo 2 che \[ P(X = 1 | \Omega) = P(Y = 1 | \Omega ) = \frac{R}{N}.\] Tuttavia, se le estrazioni sono senza rimpiazzo, vale \[\begin{split} P((X,Y) = (1,1) |\Omega) & = P(X = 1 |\Omega) P(Y = 1 | X=1) \\ & = \frac{R}{N} \cdot \frac{R-1}{N-1},\end{split}\] mentre se sono con rimpiazzo, per indipendenza vale \[ \begin{split} P((X,Y) = (1,1) |\Omega) &= P(X = 1 |\Omega) P(Y = 1 | X=1) =P(X = 1 |\Omega) P(Y = 1 | \Omega) \\ & = \frac{R}{N} \cdot \frac{R}{N}. \end{split}\]
Prima di concludere questa sezione, osserviamo che la costruzione introdotta si estende al caso di un numero qualsiasi (finito) \(k\) variabili aleatorie \(X_1\in E_1\), …, \(X_k \in E_k\). La variabile congiunta \(X = (X_1, \ldots, X_k)\) è a valori nelle \(k\)-uple ordinate \[x = (x_1, \ldots, x_k) \in E_1 \times \ldots \times E_k\] ed è definita tramite il sistema di alternative \[\begin{split} \cur{ X = x} & = \cur{X_1 = x_1, X_2=x_2, \ldots, X_k = x_k} \\ & = \cur{X_1 = x_1} \text{ e } \ldots \cur{X_k = x_k}.\end{split}\] Per ottenere le leggi marginali, o più in generale la legge di una variabile congiunta \((X_i)_{i \in I}\) per un sottoinsieme di indici \(I \subseteq \cur{1, \ldots, k}\), è sufficiente sommare (o integrare) la densità della variabile congiunta rispetto alle variabili “libere”, ossia associate agli indici nel complementare di \(I\).
3.4.1 Esercizi
Esercizio 3.8 Dare un esempio di due leggi marginali entrambe su \(E= \cur{1,2,3,4}\) tali che esistano (almeno) tre leggi congiunte \(E\times E\) diverse con tali leggi marginali.
Esercizio 3.9 Nel modello dell’estrazione dall’urna senza rimpiazzo, considerare variabili aleatorie \(X_1\), \(X_2\), , \(X_5\) a valori in \(E = \cur{R, B}\) rappresentanti l’esito della prima, seconda, ecc. estrazione. Scrivere esplicitamente la densità discreta congiunta di \(X=(X_1, X_2, \ldots, X_5)\) e le densità marginali.