Laboratorio virtuale > Valore atteso > 1 2 3 [4] 5 6 7
Al solito, iniziamo con l'introdurre un esperimento casuale definito su un certo sapazio campionario e con misura di probabilità P. Una funzione generatrice di una variabile casuale è il valore atteso di una certa trasformazione della variabile. Tutte le funzioni generatrici posseggono tre importanti proprietà:
La proprietà 2 è usata di frequente per determinare la distribuzione di una somma di variabili indipendenti. Al contrario, ricordiamo che la funzione di densità di probabilità di una somma di variabili indipendenti è la convoluzione delle funzioni di densità individuali, operazione molto più complessa.
Supponiamo che N sia una variabile casuale a valori in {0, 1, 2, ...}. La funzione generatrice di probabilità G di N è definita come
G(t) = E(tN).
Sia f la funzione di densità di probabilità di N, cosicché f(n) = P(N = n) per n = 0, 1, 2, ... Gli esercizi seguenti individuano le proprietà principali.
1.
Prova che G(t) =
n
= 0, 1, ... f(n) tn.
G(t) è quindi una serie di potenze in t, coi valori della funzione di densità di probabilità che fanno da coefficienti. Ricorda che, sulla base dei risultati di analisi, esiste un r tale che la serie converge assolutamente per |t| < r e diverge per |t| > r. Il numero r è detto raggio di convergenza della serie.
2.
Prova che G(1) = 1 e quindi r
1.
Ricorda, dall'analisi, che una serie di potenze può essere derivata termine a termine, esattamente come un polinomio. Ciascuna serie di derivate ha lo stesso raggio di convergenza della serie originale.
3.
Prova che f(n) = G(n)(0)/n!
per n = 0, 1, 2, ...
Dall'esercizio 3, nota che G individua completamente la distribuzione di N.
4.
Mostra che P(N è pari) = [1 + G(-1)] / 2.
5.
Sia r > 1. Dimostra che G(k)(1) = E[(N)k]
dove
(N)k = N(N - 1) ··· (N - k + 1).
I momenti dell'esercizio 5 si dicono momenti fattoriali.
6.
Mostra che var(N) = G(2)(1) + G(1)(1)
- [G(1)(1)]2.
7.
Supponi che N1 e N2 siano indipendenti e con funzione generatrice di probabilità rispettivamente G1 e G2. Dimostra che la funzione generatrice di probabilità di N1 + N2
è
G(t) = G1(t)G2(t).
8.
Supponi che I sia una variabile indicatore con P(I = 1) = p.
Mostra che
G(t) = 1 - p + pt per ogni t.
9.
Supponi che N abbia funzione di densità P(N = k) = C(n, k) pk
(1 - p)n-k, per k = 0, 1, ..., n.
dove n appartenente a {1, 2, ...} e p appartenente a (0, 1) sono parametri. Si ha allora una distribuzione binomiale con parametri n e p. Dimostra che
10.
Usa i risultati dei due esercizi precedenti per mostrare che, se I1, I2,
... In sono variabili indicatore indipendenti con parametro p, allora N = I1 + I2 + ··· + In
ha distribuzione binomiale con parametri n e p.
11.
Supponi che N abbia funzione di densità P(N = n) = (1 - p)n-1 p
per n = 1, 2, ... dove p appartenente a (0, 1) è un parametrro. Si tratta della distribuzione geometrica con parametro p. Prova che
12.
Supponi che N abbia funzione di densità P(N = n) = e-a an
/ n! per n = 0, 1, 2, ..., dove a > 0 è un parametrro. Si tratta della distribuzione di Poisson con parametro a. Mostra che
Sia X una variabile casuale a valori in un sottinsieme di R. La funzione generatrice dei momenti di X è la funzione M definita da
M(t) = E[exp(tX)] for t
R.
Nota che, poiché exp(tX) è una variabile casuale non negativa, M(t) esiste, come numero reale o infinito positivo, per ogni t.
La funzione generatrice dei momenti possiede molte delle proprietà della funzione generatrice di probabilità, ma è definita per un insieme più ampio di variabili casuali. Le proprietà fondamentali, che assumiamo senza dimostrarle, sono le seguenti: se M(t) è finita per t in un intervallo aperto J attorno a 0, allora
Negli esercizi seguenti, assumi che le funzioni generatrici dei momenti siano finite in un intorno di 0.
13.
Prova che M(n)(0) = E(Xn) per ogni intero non negativo n.
Pertanto le derivate della funzione generatrice dei momenti in 0 determinano i momenti della variabile (di qui il nome).
14.
Supponi che X sia una variabile casuale con funzione generatrice dei momenti M
e che a e b siano costanti. Dimostra che la funzione generatrice dei momenti di aX
+ b è
R(t) = exp(bt) M(at).
15.
Supponi che X1 e X2 siano variabili casuali indipendenti, con funzioni generatrici dei momenti M1 e M2. Prova che la funzione generatrice dei momenti di X1 + X2 è
M(t) = M1(t) M2(t).
16.
Supponi che N sia una variabile casuale a valori in {0, 1, 2, ...}, con funzione generatrice di probabilità G. Prova che la funzione generatrice dei momenti di N
is
M(t) = G(et).
17.
Supponi che X abbia distribuzione uniforme su (a, b).
Mostra che
18.
Supponi che X abbia funzione di densità f(x) = r exp(-rx)
per x > 0, dove r > 0 è un parametro (ciò individua la distribuzione esponenziale con parametro di velocità r). Prova che
19.
Supponi che Z abbia funzione di densità f(z) = exp(-z2
/ 2) / (2 pi)1/2 per z appartenente a R. Si tratta quindi di una distribuzione normale standardizzata. Prova che
L'esercizio seguente riporta esempi di distribuzioni per le quali la funzione generatrice dei momenti è infinita.
20.
Supponi che X abbia densità f(x) = a / xa
+ 1 per x > 1, dove a > 0 è un parametro. Si tratta della distribuzione di Pareto con parametro di forma a.
Nell'ultimo esercizio abbiamo considerato una distribuzione per la quale solo alcuni dei momenti sono finiti; ovviamente, la funzione generatrice dei momenti era infinita. In questa sezione, riportiamo un esempio di una distribuzione per la quale tutti i momenti sono finiti, ma la funzione generatrice dei momenti è comunque infinita. Inoltre, vedremo due distribuzioni distinti che hanno i momenti di tutti gli ordini uguali.
Supponi che Z abbia distribuzione normale standardizzata, e sia X = exp(Z). La distribuzione di X è detta lognormale.
21.
Usa la formula del cambiamento di variabile per dimostrare che X ha funzione di densità
f(x) = exp[-ln2(x) / 2] / [(2
)1/2
x] per x > 0.
22.
Usa la funzione generatrice dei momenti della distribuzione normale standardizzata per mostrare che X ha momenti di ogni ordine finiti
E(Xn) = exp(n2 / 2) per n = 1, 2, ...
23.
Dimostra che la funzione generatrice dei momenti di X è infinita per ogni numero positivo:
E[exp(tX)] =
per t > 0.
24.
Sia g(x) = f(x) {1 + sin[2
ln(x)]}
per x > 0. Prova che g è una funzione di densità di probabilità.
25.
Poni che Y abbia funzione di densità g nell'esercizio precedente. Prova che Y
ha gli stessi momenti di X:
E(Yn) = exp(n2 / 2) for n = 1, 2, ...
I grafici di f e g sono riportati qui sotto, rispettivamente in blu e rosso.

26.
Supponi che X sia una variabile casuale con funzione generatrice dei momenti M.
Prova i limiti di Chernoff:
Suggerimento: Mostra che P(X
x) = P[exp(tX)
exp(tx)] se t > 0 e
P(X
x) = P[exp(tX)
exp(tx)] se t < 0.
Poi usa la disuguaglianza di Markov.
Ovviamente, il miglior limite di Chernoff (in (a) o (b)) si ottiene trovando il t che minimizza exp(-tx) M(t).
27.
Supponi che N abbia distribuzione di Poisson con parametro a >
0. Usa i limiti di Chernoff per provare che, se n > a, allora
P(N
n)
exp(n - a) (a / n)n.
Supponiamo ora che (X1, X2) sia un vettore casuale relativo a un esperimento, a valori in un sottinsieme di R2. La funzione generatrice dei momenti (congiunta) di (X1, X2) è definita come
M(s, t) = E[exp(sX1 + tX2)]
per s, t
R.
Di nuovo, una cosa importante da notare è che se la funzione generatrice dei momenti è finita in un rettangolo aperto contenente (0, 0), allora tale funzione individua completamente la distribuzione di (X1, X2).
Siano M1, M2 e M+ la funzione generatrice dei momenti rispettivamente di X1, X2, and X1 + X2.
28.
Prova che M(s, 0) = M1(s)
29.
Prova che M(0, t) = M2( t)
30.
Prova che M(t, t) = M+(t)
31.
Prova che X1 e X2 sono indipendenti se e solo se
M(s, t) = M1(s) M2( t) per (s, t) in un rettangolo attorno a (0, 0).
Ovviamente tali risultati hanno omologhi nel caso multivariato generale. Solo la notazione si fa più complessa.
32. Supponi che (X,
Y) sia distribuito uniformemente sul triangolo {(x, y): 0 <
x < y < 1}.
33.
Supponi che (X, Y) abbia funzione di densità f(x, y)
= x + y per 0 < x < 1, 0 < y < 1.