Laboratorio virtuale > Stima puntuale > 1 2 3 4 [5] 6

5. Migliori stimatori corretti


Il modello di base

Consideriamo, di nuovo, un semplice modello statistico nel quale abbiamo un esperimento casuale che si rappresenta tramite una variabile casuale X che assume valori in S. Di nuovo, l'esperimento consiste nell'estrarre n elementi da una popolazione e registrare le misurazioni su ogni osservazione. In questo caso, X ha forma

X = (X1, X2, ..., Xn).

dove Xi è il vettore delle misurazioni sull'i-esimo elemento.

Supponi che a sia un parametro reale della distribuzione di X, che assume valori in uno spazio parametrico A sottinsieme R. Sia f(· | a) la funzione di densità di probabilità di X per a in A. Nota che valore atteso, varianza, e covarianza dipendono da a, anche se trascureremo ciò per evitare una notazione troppo complessa. Sia infine Da l'operatore di derivazione rispetto ad a.

Supponi che b = b(a) sia il parametro di interesse. In questo paragrafo considereremo il problema di trovare il migliore stimatore per b(a) in una classe di stimatori corretti. Ricorda che se U è uno stimatore corretto di b(a), allora l'errore quadratico medio coincide con var(U). Pertanto, se U e V sono stiamtori corretti di b(a) e

var(U ) <= var(V) per ogni a in A.

Pertanto U è uniformemente migliore di V. D'altra parte, può darsi che U abbia varianza minore per certi valori di a mentre V per altri. Se U è unfiormemente migliore di ogni altro stimatore corretto di b(a), allora U è detto Uniformly Minimum Variance Unbiased Estimator (UMVUE).

La disuguaglianza di Cramer-Rao

In questo paragrafo mostreremo che, sotto condizioni non stringenti, esiste un limite inferiore per la varianza di uno stimatore corretto per un parametro b(a). Se possiamo quindi trovare uno stimatore che raggiunga questo limite inferiore per ogni a in A, allora tale stimatore dev'essere UMVUE.

L'assunzione che dobbiamo fare è che per ogni funzione h, applicazione di S in R con E[|h(X)|] < infinito,

Da E[h(X)] = E{h(X) Da ln[f(X | a)]}.

Esercizio teorico 1. Dimostra che questa condizione equivale all'assunzione che l'operatore di derivazione Da possa essere scambiato con l'operatore valore atteso E.

In termini generali, l'assunzione è soddisfatta se f(x | a) è derivabile rispetto ad a, con derivata continua rispetto a x e ad a, e se il supporto {x: f(x | a) > 0} non dipende da a.

Esercizio teorico 2. Dimostra che E{Da ln[f(X | a)]} = 0. Suggerimento: Usa la condizione fondamentale con h(x) = 1 per x appartenente S.

Poniamo ora che h sia una funzione che soddisfa l'assunzione.

Esercizio teorico 3. Dimostra che cov{h(X), Da ln[f(X | a)]} = Da E[h(X)]. Suggerimento: Nota in primo luogo che la covarianza è semplicemente il valore atteso del prodotto delle variabili, poiché la seconda variabile ha media 0 (vedi l'esercizio precedente). Usa poi la condizione.

Esercizio teorico 4. Dimostra che var{Da ln[f(X | a)]} = E{[Da ln[f(X | a)]]2}. Suggerimento: La varibile ha media 0.

Esercizio teorico 5. Usa infine la disuguaglianza di Cauchy-Schwartz per trovare il limite inferiore di Cramer-Rao:

var[h(X)] >= {Da E[h(X)]}2 / E{[Da ln[f(X | a)]]2}.

Esercizio teorico 6. Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalla distribuzione di una variabile casuale X con funzione di densità g. Dimostra che

var[h(X)] >= {Da E[h(X)]}2 / n E{[Da ln[g(X | a)]]2}.

Suggerimento: La densità congiunta è il prodotto delle densità marginali. Usa le proprietà dei logaritmi, l'indipendenza e l'esercizio 2.

Supponi ora che b(a) sia il parametro di interesse e h(X) sia uno stimatore corretto di b(a).

Esercizio teorico 7. Usa la disuguaglianza di Cramer-Rao per mostrare che

var[h(X)] >= {Da b(a)}2 / E{[Da ln[f(X | a)]]2}.

Esercizio teorico 8. Mostra che l'uguaglianza in 7 vale se e solo se

h(x) - b(a) = u(a)Da ln[f(x | a)] per ogni x

per qualche funzione u(a). Suggerimento: Ricorda che l'uguaglianza, nella disuguaglianza di Cauchy-Schwartz, si ha se e solo se le variabili casuali sono trasformazioni lineari l'una dell'altra. Richiama inoltre che Da ln[f(X | a)] ha media 0.

Esercizio teorico 9. Supponi che X = (X1, X2, ..., Xn) sia un campione casuale di dimensione n dalla distribuzione di una variabile casuale X con funzione di densità g. Mostra che

var[h(X)] >= {Da b(a)}2 / n E{[Da ln[g(X | a)]]2}.

La quantità E{[Da ln[f(X | a)]]2} che si incontra al denominatore dei limiti inferiori negli esercizi 5 e 7 è detta Informazione di Fisher di X, in onore di Sir Ronald Fisher.

Gli esercizi seguenti riportano versioni alternative delle espressioni degli esercizi 7 e 8, spesso più utili a fini computazionali.

Esercizio teorico 10. Mostra che se le derivate esistono e se sono possibili gli scambi tra derivata e valore atteso, allora

E{[Da ln[g(X | a)]]2} = -E{Da2 ln[g(X | a)]}.

La distribuzione di Bernoulli

Supponi che (I1, I2, ..., In) sia un campione casuale di dimensione n dalla distribuzione di Bernoulli con parametro p. L'assunzione fondamentale è soddisfatta.

Esercizio teorico 11. Prova che p(1 - p) / n è il limite inferiore di Cramer-Rao per la varianza degli stimatori corretti di p.

Esercizio teorico 12. Prova che la media campionaria (o, equivalentemente, la proporzione) Mn raggiunge il limite inferiore di Cramer-Rao ed è quindi un UMVUE di p.

La distribuzione di Poisson

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzione di Poisson con parametro a. L'assunzione fondamentale è soddisfatta.

Esercizio teorico 13. Prova che a / n è il limite inferiore di Cramer-Rao per la varianza degli stimatori corretti di a.

Esercizio teorico 14. Mostra che la media campionaria Mn raggiunge il limite inferiore di Cramer-Rao ed è pertanto UMVUE di a.

La distribuzione normale

Supponi che (X1, X2, ..., Xn) sia un campione di dimensione n della distribuzione normale con media µ e varianza d2. L'assunzione fondamentale è soddisfatta sia per µ che per d2. Ricorda inoltre che E[(X - µ)4] = 3d4.

Esercizio teorico 15. Prova che d2 / n è il limite inferiore per la varianza degli stimatori corretti di µ.

Esercizio teorico 16. Prova che la media campionaria Mn raggiunge il limite di Cramer-Rao ed è pertanto UMVUE di µ.

Esercizio teorico 17. Prova che 2d4 / n è il limite inferiore per la varianza degli stimatori corretti di d2.

Esercizio teorico 18. Prova che la varianza campionaria S2 ha varianza 2d4 / (n - 1) e quindi non raggiunge il limite di Cramer-Rao presentato nell'esercizio 17.

Esercizio teorico 19. Prova che, se µ è noto, allora la statistica sottoindicata raggiunge il limite inferiore di Cramer-Rao ed è pertanto UMVUE di d2:

W2 = (1 / n)sumi = 1, ..., n (Xi - µ)2.

Esercizio teorico 20. Dimostra che, se µ è ignota, nessuno stimatore di d2 raggiunge il limite inferiore di Cramer-Rao.

La distribuzione gamma

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzione gamma con parametro di scala b e parametro di forma k. L'assunzione fondamentale è soddisfatta per b.

Esercizio teorico 21. Prova che b2 / nk è il limite inferiore per la varianza degli stimatori corretti di b.

Esercizio teorico 22. Dimostra che, se k è noto, allora Mn / k raggiunge il limite inferiore di Cramer-Rao ed è pertanto UMVUE di b.

La distribuzione uniforme

Supponi che (X1, X2, ..., Xn) sia un campione casuale di dimensione n della distribuzione uniforme su (0, a).

Esercizio teorico 23. Prova che l'assunzione fondamentale non è soddisfatta.

Esercizio teorico 24. Mostra che il limite inferiore per la varianza degli stimatori corretti di a è a2 / n.

Esercizio teorico 25. Prova (o richiama) che [(n + 1) / n]X(n) è corretto ed ha varianza a2 / n(n + 2), inferiore al limite di Cramer-Rao dell'esercizio precedente.

La ragione per cui l'assunzione fondamentale non è soddisfatta è che il supporto {x: f(x | a) > 0} dipende da a.

Migliori stimatori lineari corretti

Consideriamo ora un problema più specifico, che riguarda comunque l'argomento di questo paragrafo. Supponiamo che X1, X2, ..., Xn siano variabili casuali osservabili, a valori reali, inocrrelate e con lo stesso valore atteso µ, ma potenzialmente diverse deviazioni standard. Sia di = sd(Xi) per i = 1, 2, ..., n. Consideremo solo stimatori di µ che siano funzioni lineari dei valori osservati:

Y =sommatoriai = 1, ..., n ciXi dove c1, ..., cn devono essere determinati.

Esercizio teorico 26. Dimostra che Y è corretto se e solo se sommatoriai = 1, ..., n ci = 1.

Esercizio teorico 27. Calcola la varianza di Y in termini di c1, c2, ..., cn e d1, d2, ..., dn.

Esercizio teorico 28. Usa i moltiplicatori di Lagrange per provare che la varianza è minima, sotto il vincolo di correttezza, se

cj = (1 / dj2) /sommatoriai = 1, ..., n (1 / di2) for j = 1, 2, ..., n.

Questo esercizio mostra come costruire il miglior stimatore lineare corretto (BLUE) di µ, assumendo che d1, d2, ..., dn siano noti.

Supponiamo ora che di = d per ogni i, cosicché le variabili abbiano la stessa deviazione standard. In particolare, ciò si verifica quando le variabili formano un campione casuale di dimensione n da una distribuzione con media µ e deviazione standard d.

Esercizio teorico 29. Mostra che in questo caso la varianza è minima quando ci = 1 / n per ogni i, e quindi Y è la media campionaria.

Questo esercizio ha mostrato che la media campionaria Mn è il miglior stimatore lineare corretto di µ quando le deviazioni standard sono costanti e che, inoltre, non è necessario conoscere il loro valore.