2.6 Formula di Bayes
Una conseguenza elementare della regola della somma è che, essendo “\(A\) e \(B\)” logicamente equivalente a “\(B\) e \(A\)”, si può anche scrivere (omettendo \(I\) per semplicità di notazione) \[\begin{equation} P( B ) P(A|B) = P(B \text{ e } A ) = P(A \text{ e } B) = P(A) P(B|A). \tag{2.2} \end{equation}\]
Da questa semplice osservazione, dividendo per \(P(B)\) (supponendo che non sia zero) segue una delle formule più importanti, ma anche discusse e misinterpretate, del calcolo delle probabilità: la formula di Bayes.
Teorema 2.1 (formula di Bayes) Date affermazioni \(A\), \(B\) e l’informazione nota \(I\), vale \[ P( A | B, I ) = P(A | I ) \frac{ P(B | A,I)}{P(B|I)}\] (purché \(P(B|I)>0\)).
L’intepretazione della formula, apparentemente banale, è centrale. Supponiamo che sia richiesto al robot di calcolare come l’acquisizione di nuova informazione \(B\), oltre a quella già nota \(I\), cambi il grado di fiducia nella validità di una affermazione \(A\). Allora la formula di Bayes prescrive di aggiornare la probabilità (a volte detta a priori) \(P(A|I)\) moltiplicandola per il rapporto \[\begin{equation} \frac{ P(B | A,I)}{P(B|I)}. \tag{2.3} \end{equation}\] La probabilità \(P(A|B,I)\) è detta anche a posteriori (ossia dopo aver incluso l’informazione \(B\)). Teniamo presente però che la distinzione a priori e a posteriori è solamente nel momento in cui si applica la formula di Bayes, perché la probabilità a posteriori \(P(A|B,I)\) a sua volta può diventare a priori se si vuole includere ulteriore informazione \(C\), e calcolare \(P(A|C,B,I)\), e così via.
Definizione 2.6 (verosimiglianza) Il numeratore nel rapporto (2.3), ossia il termine \[ P(B|A,I)\] è detto verosimiglianza (in inglese likelihood) di \(A\) rispetto a \(B\) (condizionata ad \(I\)) e si indica tradizionalmente con la lettera \(L\) (eventualmente corsivo \(\mathcal{L}\)). Noi useremo la notazione \[L(A; B) = P(B|A),\] tralasciando di specificare \(I\), oppure \(L(A,I;B)\) se vogliamo indicarla. La verosimiglianza di \(A\) rispetto a \(B\) è quindi definita come la probabilità di \(B\) sapendo \(A\), e non è un concetto nuovo, solamente una notazione in cui privilegiamo il ruolo \(A\) rispetto a \(B\).
Il rapporto (2.3) che nella formula di Bayes moltiplica la probabilità a priori (ossia rispetto ad \(I\)) può essere maggiore, minore o uguale ad \(1\), e indica quanto il grado di fiducia in \(B\) cambia se aggiungiamo invece l’informazione \(A\) – qualitativamente, un rapporto maggiore di \(1\) indica che \(A\) è un “indizio” a favore della validità di \(B\). La formula di Bayes allora permette di scambiare i ruoli di \(A\) e \(B\), un po’ come se invertissimo l’ipotesi con la tesi in un teorema: mentre questa operazione nella logica deduttiva non è ammessa3, nel calcolo delle probabilità è possibile e anche molto utile, proprio perché a volte è più facile ragionare scambiando i ruoli!
Remark. Consideriamo l’affermazione “se piove, allora porto l’ombrello”. Scambiando ipotesi con tesi si ottiene “se porto l’ombrello, allora piove”. Siccome ci tengo molto a non bagnarmi, la prima versione è vera, ma la seconda non lo è necessariamente – capita a volte che porti l’ombrello per eccessiva precauzione. Però una persona, incontrandomi in un corridoio mentre porto l’ombrello, è portata a pensare che fuori stia piovendo. Per molti versi la formula di Bayes è più vicina al ragionamento di buon senso che applichiamo quotidianamente, invece della mera deduzione logica.
2.6.1 Esercizi
Esercizio 2.11 Si effettuano \(2\) estrazioni senza rimpiazzo da un’urna con \(N\) palline, di cui \(R\) rosse e le rimanenti \(B\) blu (supporre che siano parametri noti). Sapendo che la seconda estrazione è rossa, calcolare la probabilità che la prima estrazione sia pure rossa.
Esercizio 2.12 Mostrare la seguente estensione della formula di Bayes: date affermazioni \(A\), \(B\), \(I\) e \(J\), vale \[ P( A, J | B, I) = P(A | I) \cdot \frac{ P(B, J | A, I)}{P(B|I)}.\] Questa formula permette di scambiare “parzialmente” i ruoli dell’informazione nota e dell’affermazione di cui si richiede la probabilità.