Laboratorio virtuale > Valore atteso > 1 2 3 4 5 [6] 7

6. Valore atteso e matrici di covarianza


L'obiettivo principale di questo paragrafo è la trattazione dei valori attesi con argomento vettoriale e le matrici di varianza e covarianza. Tali argomenti sono particolarmente importanti per i modelli statistici multivariati e per la distribuzione normale multivariata. La lettura di qeusto paragrafo presuppone la conoscenza dei fondamenti dell'algebra lineare, a livello di un corso universitario.

Indicheremo con Rm×n lo spazio di tutte le m × n matrici di numeri reali. In particolare, identificheremo Rn con Rn×1, per cui una nupla ordinata può essere pensata come vettore colonna n × 1. La trasposta di una matrice A è indicata come AT.

Valore atteso di una matrice casuale

Supponi che X sia una matrice m × n di variabili casuali a valori reali, il cui elemento i, j è indicato con Xij. Equivalentemente, X può essere visto come matrice casuale m × n. Viene naturale definire il valore atteso E(X) come la matrice m × n il cui elemento i, j è E(Xij), ovvero il valore atteso di Xij.

Molte delle proprietà più importanti del valore atteso di variabili casuali hanno proprietà omologhe nel caso dei vettori casuali, con le operazioni matriciali al posto di quelle algebriche.

Esercizio teorico 1. Prova che E(X + Y) = E(X) + E(Y) se X e Y sono matrici casuali m × n.

Esercizio teorico 2. Prova che E(AX) = AE(X) se A è una matrice m × n non casuale e X è una matrice casuale n × k.

Esercizio teorico 3. Prova che E(XY) = E(X)E(Y) se X è una matrice casuale m × n, Y è una matrice casuale n × k e X e Y sono indipendenti.

Matrici di covarianza

Supponiamo ora che X sia un vettore casuale appartenente a Rm e Y sia un vettore casuale appartenente a Rn. La matrice di covarianza di X e Y è la matrice m × n cov(X, Y) il cui elemento i, j è cov(Xi, Yj), cioè la covarianza di Xi e Yj.

Esercizio teorico 4. Mostra che cov(X, Y) = E{[X - E(X)][Y - E(Y)]T}

Esercizio teorico 5. Mostra che cov(X, Y) = E(XYT) - E(X)E(Y)T.

Esercizio teorico 6. Mostra che cov(Y, X) = cov(X, Y)T.

Esercizio teorico 7. Mostra che cov(X, Y) = 0 se ciascun elemento di X è incorrelato con ciascun elemento di Y (in particolare, se X e Y sono indipendenti).

Esercizio teorico 8. Mostra che cov(X + Y, Z) = cov(X, Z) + cov(Y, Z) se X e Y sono vettori casuali appartenente a Rm e Z è un vettore casuale appartenente a Rn.

Esercizio teorico 9. Mostra che cov(X, Y + Z) = cov(X, Y) + cov(X, Z) se X è un vettore casuale appartenente a Rm e Y, Z sono vettori casuali appartenenti a Rn.

Esercizio teorico 10. Prova che cov(AX, Y) = A cov(X, Y) se X è un vettore casuale appartenente a Rm, Y è un vettore casuale appartenente a Rn e A è una matrice k × m non casuale.

Esercizio teorico 11. Prova che cov(X, AY) = cov(X, Y)AT se X è un vettore casuale appartenente a Rm, Y è un vettore casuale appartenente a Rn e A è una matrice k × n non casuale.

Matrici di varianza e covarianza

Supponiamo ora che X = (X1, X2, ..., Xn) sia un vettore casuale appartenente a Rn. La matrice di covarianza di X con se stessa è detta matrice di varianza e covarianza di X:

VC(X) = cov(X, X).

Esercizio teorico 12. Mostra che VC(X) è una matrice n × n simmetrica con var(X1), ..., var(Xn) sulla diagonale.

Esercizio teorico 13. Dimostra che VC(X + Y) = VC(X) + cov(X, Y) + cov(Y, X) + VC(X) se X and Y sono vettori casuali appartenenti a Rn.

Esercizio teorico 14. Mostra che VC(AX) = A VC(X) AT se X è un vettore casuale appartenente a Rn e A è una matrice m × n non casuale.

Se a appartiene a Rn, notiamo che aTX è combinazione lineare delle coordinate di X:

aTX = a1X1 + a2X2 + ··· + anXn.

Esercizio teorico 15. Prova che var(aTX) = aT VC(X) a se X è un vettore casuale appartenente a Rn e a appartiene a Rn. Concludiamo quindi che VC(X) è positiva definita o semi positiva definita.

In particolare, gli autovalori e il determinante di VC(X) sono nonnegativi.

Esercizio teorico 16. Prova che VC(X) è semidefinita positiva (ma non positiva definita) se e solo se esistono a1, a2, ..., an, c in R tali che

a1X1 + a2X2 + ··· + anXn = c (con probabilità 1).

Pertanto, se VC(X) è semidefinita positiva, allora una delle coordinate di X può essere scritta come trasformazione affine delle altre coordinate (e quindi può di solito essere eliminata nel modello sottostante). Al contrario, se VC(X) è definita positiva, allora ciò non può verificarsi; VC(X) ha autovalori positivi e determinante ed è invertibile.

Esercizi numerici

Esercizio teorico 17. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y for 0 < x < 1, 0 < y < 1. Trova

  1. E(X, Y)
  2. VC(X, Y).

Esercizio teorico 18. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) per 0 < x < y < 1. Trova

  1. E(X, Y)
  2. VC(X, Y).

Esercizio teorico 19. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6x2y per 0 < x < 1, 0 < y < 1. Trova

  1. E(X, Y)
  2. VC(X, Y).

Esercizio teorico 20. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15x2y per 0 < x < y < 1. Trova

  1. E(X, Y)
  2. VC(X, Y).

Esercizio teorico 21. Supponi che (X, Y, Z) sia distribuita uniformemente sulla regione {(x, y, z): 0 < x < y < z < 1}. Trova

  1. E(X, Y, Z)
  2. VC(X, Y, Z)

Esercizio teorico 22. Supponi che X sia distribuita uniformemente su (0, 1), e che, dato X, Y sia distribuita uniformemente su (0, X). Trova

  1. E(X, Y)
  2. VC(X, Y)