Laboratorio virtuale > Stima puntuale > 1 2 3 [4] 5 6

4. Stimatori Bayesiani


Il metodo

Supponiamo di nuovo di avere una variabile casuale osservabile X, per un certo esperimento, che assuma valori in un insieme S. Supponiamo inoltre che la distribuzione di X dipenda da un parametro ignoto a, suscettibile di assumere valori in uno spazio parametrico A. Come in precedenza, indicheremo con f(x | a) la funzione di densità di X in x.

Nell'analisi Bayesiana, si tratta il vettore di parametri a come una variabile casuale con una certa funzione di densità h(a), con a appartenente ad A. La distribuzione corrisponendente è detta distribuzione a priori di a e ha l'obiettivo di raccogliere le informazioni di cui si dispone (se ce ne sono) sul vettore dei parametri, prima di raccogliere i dati.

Si utilizza poi il teorema di Bayes, che prende il nome da Thomas Bayes, per calcolare la funzione di densità condizionata di a dato X = x appartenente a S:

h(a | x) = f(x | a)h(a) / g(x), per a appartenente ad A e x appartenente a S

dove g è la funzione di densità (marginale) di X. Ricorda che per un dato x appartenente a S, g(x) può essere ottenuta integrando (nel caso continuo) o sommando (nel caso discreto) f(x | a)h(a) per gli a appartenenti ad A. Equivalentemente, g(x) è una costante di normalizzazione per f(x | a)h(a) come funzione di a. La distribuzione condizionata di a dato X = x è detta distribuzione a posteriori, ed è una distribuzione aggiornata utilizzando l'informazione contenuta nei dati.

Se a è un parametro reale, il valore atteso condizionato E(a | X) è lo stimatore Bayesiano di a. Ricorda che E(a | X) è funzione di X e, tra tutte le funzioni di X, è la più vicina ad a in media quadratica.

Famiglie coniugate

In molti casi speciali, possiamo trovare una famiglia parametrica di distribuzioni con la seguente proprietà: se la distribuzione a priori di a appartiene alla famiglia, allora così è anche per la distribuzione a posteriori di a dato X = x. La famiglia si dice coniugata alla distribuzione di X. Le famiglie coniugate sono molto utili dal punto di vista computazionale, poiché si può spesso calcolare la distribuzione a posteriori attraverso una semplice formula che coinvolge i parametri della famiglia senza dover utilizzare direttamente il teorema di Bayes.

La distribuzione di Bernoulli

Supponiamo di avere un moneta non bilanciata con probabilità che esca testa p ignota. Lanciamo la moneta n volte e registriamo il vettore degli esiti I = (I1, I2, ..., In). Per un dato p, queste variabili formano un campione casuale estratto dalla distribuzione di Bernoulli a parametro p. Sia Xn = I1 + I2 + ··· + In il numero di teste

Supponiamo ora di assegnare a p distribuzione a priori beta con parametri a e b, dove a e b si scelgono sulla base delle nostre informazioni sulla moneta. Per esempio, se non sappiamo nulla, possiamo porre a = b = 1, cosicché p abbia distribuzione a priori unfiorme su (0, 1). D'altra parte, se crediamo che la moneta sia sbilanciata verso testa con p all'incirca 2 / 3, possiamo porre a = 4 e b = 2 (cosicché il valore atteso della distribuzione a priori risulti 2/3).

Esercizio teorico 1. Prova che la distribuzione a priori di p dato I è una beta a parametri a + Xn, b + (n - Xn).

L'esercizio 1 prova che la distribuzione beta è coniugata alla distribuzione di Bernoulli. Nota inoltre che nella distribuzione a posteriori, il primo parametro della beta è incrementato dal numero di teste, mentre il secondo dal numero di croci.

Simulazione 2. Nell' esperimento della moneta non bilanciata, poni n = 10, p = 0.7, e a = b = 1 (distribuzione a priori uniforme). Simula 100 replicazioni e osserva la forma e la posizione della densità a posteriori dopo ogni replicazione.

Esercizio teorico 3. Prova che lo stimatore Bayesiano di p è Un = (Xn + a) / (n + a + b).

Simulazione 4. Nell' esperimento della moneta non bilanciata, poni n = 20, p = 0.3, e a = 4 e b = 2. Simula 100 replicazioni e osserva la stima di p e la forma e la posizione della densità a posteriori dopo ogni replicazione.

Esercizio teorico 5. Prova che bias(Un | p) = (a - pa - pb) / (n + a + b) e quindi Un è asintoticamente corretto.

Osserva che nell'esercizio 3 non possiamo scegliere a e b per avere Un corretto, poiché tale scelta coinvolgerebbe in valore vero di p, che non è noto.

Simulazione 6. Nell' esperimento della moneta non bilanciata, poni n = 20, p = 0.8, a = 2 e b = 6. Simula 1000 replicazioni aggiornando ogni 10. Osserva la stima di p e la forma e la posizione della funzione di densità a posteriori ad ogni aggiornamento. Osserva la convergenza della distorsione empirica a quella teorica.

Esercizio teorico 7. Dimostra che l'errore quadratico medio di Un è quello che segue, e che quindi Un è consistente:

MSE(Un | p) = [p(n - 2a2 - 2ab) + p2(-n + a2 + b2 + 2ab) + a2] / (n + a + b)2.

Simulazione 8. Nell' esperimento della moneta non bilanciata, poni n = 10, p = 0.7, a = 1 e b = 1. Simula 1000 replicazioni aggiornando ogni 10. Osserva la stima di p e la forma e la posizione della funzione di densità a posteriori ad ogni aggiornamento. Osserva la convergenza dell'errore quadratico medio empirico a quello teorico.

È interessante notare che possiamo scegliere a e b in modo che Un abbia errore quadratico medio indipendente da p:

Esercizio teorico 9. Prova che se a = b = n1/2 / 2 allora MSE(Un | p) = n / [4(n + n1/2)2] per ogni p.

Simulazione 10. Nell' esperimento della moneta non bilanciata, poni n = 36 e a = b = 3. Modifica p e osserva che l'errore quadratico medio non cambia. Con p = 0.8 simula 1000 replicazioni, aggiornando ogni 10. Osserva la stima di p e la forma e la posizione della funzione di densità a posteriori ad ogni aggiornamento. Osserva la convergenza della distorsione e dell'errore quadratico medio empirici ai loro valori teorici.

Ricorda che la media campionaria Mn = Xn / n (la proporzione di teste) è sia lo stimatore del metodo dei momenti che quello di massima verosimiglianza per p, ed ha errore quadratico medio MSE(Mn | p) = p(1 - p) / n.

Esercizio teorico 11. Disegna i grafici di MSE(Un | p) dell'esercizio 6 e MSE(Mn | p), in funzione di p, sullo stesso sistema di assi.

Supponiamo ora che la moneta sia bilanciata o a due teste. Diamo a p la distribuzione a priori che segue, dove abbiamo scelto a appartenente a (0, 1), in modo da rispecchiare le nostre conoscenze a priori sulla probabilità che esca testa.

h(1) = a, h(1 / 2) = 1 - a.

Esercizio teorico 12. Prova che la distribuzione a posteriori di p dato I è la seguente. Interpreta i risultati.

  1. h(1 | I) = a / [a + (1 - a) (1 / 2)n] se Xn = n.
  2. h(1 | I) = 0 se Yn < n.
  3. h(1 / 2 | I) = 1 - h(1 | I).

Esercizio teorico 13. Prova che lo stimatore Bayesiano di p è

Un = pn se Xn = n, Un = 1 / 2 se Xn < n,

dove pn = [a + (1 - a)(1 / 2)n + 1] / [a + (1 - a) (1 / 2)n].

Esercizio teorico 14. Mostra che

  1. E(Un | p = 1) = pn.
  2. E(Un | p = 1 / 2) = (1 / 2)n pn + (1 / 2) [1 - (1 / 2)n].
  3. Un è asintoticamente corretto.

Esercizio teorico 15. Mostra che

  1. MSE(Un | p = 1) = (pn - 1)2.
  2. MSE(Un | p = 1 / 2) = (1 / 2)n (pn - 1 / 2)2.
  3. Un è consistente

La distribuzione di Poisson

Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalla distribuzione di Poisson con parametro a. Supponi inoltre che a abbia distribuzione a priori gamma con parametro di forma k e parametro di scala b. Sia

Yn = X1 + X2 + ··· + Xn.

Esercizio teorico 16. Prova che la distribuzione a posteriori di a dato X è una gamma con parametro di forma k + Yn e parametro di scala b / (nb + 1).

Ne segue che la distribuzione gamma è coniugata alla distribuzione di Poisson.

Esercizio teorico 17. Prova che lo stimatore Bayesiano di a è Vn = (k + Yn)b / (nb + 1).

Esercizio teorico 18. Dimostra che bias(Vn | µ) = (kb - a) / (nb + 1) e quindi Vn è asintoticamente corretto.

Nota che, anche in questo caso, non possiamo scegliere k e b in modo da avere Vn corretto.

Esercizio teorico 19. Prova che l'errore quadratico medio di Vn è il seguente, e quindi Vn è consistente:

MSE(Vn | a) = [(nb2 - 2kb)a + a2 + k2b2) / [(nb + 1)2].

La distribuzione normale

Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n da una distribuzione normale con media µ e varianza d2, dove µ è ignoto, mentre d2 è noto. Supponi inoltre che µ abbia distribuzione a priori normale con media a e varianza b2, ovviamente entrambi noti. Sia

Yn = (X1 + X2 + ··· + Xn).

Esercizio teorico 20. Prova che la distribuzione a posteriori di µ dato X è normale con media e varianza:

  1. E(µ | X) = (Ynb2 + ad2) / (d2 + nb2)
  2. var(µ | X) = d2b2 / (d2 + nb2)

Pertanto, la distribuzione normale è coniugata alla normale con media ignota e varianza nota. Segue inoltre che lo stimatore Bayesiano di µ è

Un = (Ynb2 + ad2) / (d2 + nb2).

Esercizio teorico 21. Dimostra che bias(Un | µ) = d2(a - µ) / (d2 + nb2) e quindi Un è asintoticamente corretto.

Esercizio teorico 22. Dimostra che MSE(Un | µ) = [nd2b4 + d4(a - µ)2] / (d2 + nb2)2 e quindi Un è consistente.