Laboratorio virtuale > Distribuzioni > 1 2 3 4 [5] 6 7 8 9
Al solito, iniziamo introducendo un esperimento casuale con spazio campionario R e misura di probabilità P su R. Supponiamo che X sia una variabile casuale relativa all'esperimento, a valori in un insieme S. L'obiettivo di questo paragrafo è studiare la misura di probabilità condizionata su R dato X = x, con x appartenente a S. Vogliamo quindi definire e studiare
P(A | X = x) per A R e per x appartenente S.
Vedremo che X ha distribuzione discreta, per cui non si introducono nuovi concetti, ed è sufficiente la semplice definizione della probabilità condizionata. Quando X ha distribuzione continua, invece, serve un approccio fondamentalmente diverso.
Supponiamo in primo luogo che X abbia distribuzione discreta con funzione di densità g. S è quindi numerabile e si può assumere che g(x) > 0 per x appartenente a S.
1. Prova che
P(A | X = x) = P(X = x, A) / g(x) for A R, x in S.
2. Prova la versione seguente legge delle probabilità totali
P(X B, A) = x in B P(A | X = x)g(x) per A R, B S.
Di converso, la legge delle probabilità totali individua completamente la distribuzione condizionata dato X = x.
3. Supponi che Q(x, A), per x S, A R, soddisfi
P(A, X B) = x in B Q(x, A) g(x) per B S.
Dimostra che Q(x, A) = P(A | X = x) per x S, A R.
Supponiamo ora che X abbia distribuzione continua su S Rn, con funzione di densità g. Assumiamo g(x) > 0 per x appartenente a S. Contrariamente al caso discreto, non possiamo utilizzare la semplice probabilità condizionata per definire la probabilità condizionata di un evento dato X = x, poiché l'evento a cui si condiziona ha probabilità 0 per qualsiasi x. Ad ogni modo, il concetto dovrebbe avere senso. Se eseguiamo realmente l'esperimento, X assumerà un certo valore x (anche se, a priori, tale eventom si verifica con probabilità 0), e sicuramente l'informazione X = x finirà per alterare le probabilità che assegnamo agli altri eventi. Un approccio naturale è quello di utilizzare i risultati ottenuti nel caso discreto come definizioni per il caso continuo. Quindi, basandosi sulla caratterizzazione di cui sopra, definiamo la probabilità condizionata
P(A | X = x) per x appartenente a S, A R.
richiedendo che valga la legge delle probabilità totali:
P(A, X B) = B P(A | X = x) g(x)dx per ogni B S.
Per il momento, accetteremo il fatto che P(A | X = x) possa essere definito attraverso questa condizione. Tuttavia, ritorneremo su questo punto nel paragrafo sul valore atteso condizionato nel capitolo sul valore atteso.
Il teorema di Bayes, che prende nome da Thomas Bayes, individua una formula per la densità condizionata di X dato A, in termini della densità di X e la probabilità condizionata di A dato X = x.
4. Sia A un evento con P(A) > 0. Prova che la densità condizionata di X dato A è
Nel contesto del teorema di Bayes, g è detta densità a priori di X e g( · | A) è la densità s posteriori di X dato A.
Le definizioni e i risultati di cui sopra si applicano, ovviamente, se A è un evento definito in termini di un'altra variabile casuale del nostro esperimento.
Supponiamo quindi che Y sia una variabile casuale a valori in T. Allora
5. Dimostra che h(y | x) è una funzione di densità in y per ogni x in S:
h(y | x) = f(x, y) / g(x) per x S, y T.
Il prossimo esercizio mostra che h(y | x), in funzione di y, è la densità condizionata di Y dato X = x.
6. Dimostra che, per x S, B T,
Il teorema seguente è una versione del teorema di Bayes per le funzioni di densità. Usiamo la notazione definita poco sopra, e in più indichiamo con g(x | y) la densità condizionata di X in x appartenente a S dato Y = y appartenente a T.
7. Mostra che per x appartenente a S, y appartenente a T,
Nel contesto del teorema di Bayes, g è la densità a priori di X e g(· | y) è la densità a posteriori di X dato Y = y.
Intuitivamente, X e Y dovrebbero essere indipendenti se e solo se le distribuzioni condizionate sono uguali alle corrispondenti distribuzioni non condizionate.
8. Prova che le seguenti condizioni sono equivalenti:
In molti casi le distribuzioni condizionate si presentano quando uno dei parametri della distribuzione viene randomizzato. Nota questa situazione in alcuni degli esercizi che seguono.
9. Supponi di lanciare due dadi equilibrati e di registrare la sequenza dei punteggi (X1, X2). Siano U = min{X1, X2} e V = max{X1, X2} rispettivamente il minimo e il massimo dei punteggi.
10. Nell'esperimento dado-moneta si lancia un dado equilibrato e poi si lancia una moneta bilanciata il numero di volte indicato dal dado. Sia N il punteggio del dado e X il numero di teste.
11. Nell'esperimento dado-moneta, seleziona dado e moneta equilibrati.
12. Nell'esperimento moneta-dado, si lancia una moneta bilanciata. Se esce croce, si lancia un dado equilibrato; se esce testa si lancia un dado piatto uno-sei (le facce 1 e 6 hanno probabilità 1/4 e le facce 2, 3, 4 e 5 hanno probabilità 1/8). Sia I il punteggio della moneta (0 croce e 1 testa) e X il punteggio del dado.
13. Nell'esperimento moneta-dado, seleziona le impostazioni dell'esercizio precedente.
14. Supponi che una scatola contenga 12 monete: 5 sono bilanciate, 4 sono sbilanciate con probabilità di testa 1/3 e 3 hanno due teste. Si estrae a caso una moneta e la si lancia due volte. Sia V la probabilità di testa della moneta selezionata, e X il numero di teste.
15. Supponi che in una scatola vi siano 5 lampadine, indicate con numeri da 1 a 5. La durata di una lampadina n (in mesi) ha distribuzione esponenziale con parametro di velocità n. Si estrae a caso una lampadina e la si mette alla prova
16. Supponi che N abbia distribuzione di Poisson con parametro 1, e dato N = n, X abbia distribuzione binomiale con parametri n e p.
17. Supponi che X sia distribuito uniformemente su {1, 2, 3}, e dato X = i, Y sia distribuito uniformemente sull'intervallo (0, i).
18. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y < 1.
19. Supponi che (X, Y) abbia funzione di densità f(x, y) = 2(x + y) for 0 < x < y < 1.
20. Supponi che (X, Y) abbia funzione di densità f(x, y) = 15 x2y per 0 < x < y < 1.
21. Supponi che (X, Y) abbia funzione di densità f(x, y) = 6 x2y per 0 < x < 1, 0 < y < 1.
22. Supponi che V abbia densità g(p) = 6p(1 - p) per 0 < p < 1. Dato V = p, si lancia tre volte una moneta con probabilità di testa p. Sia X il numero di teste.
Confronta l'esercizio 22 con l'esercizio 14. Nell'esercizio 22, si scegli di fatto una moneta da una scatola che contiene infiniti tipi di monete.
23. Supponi che X si distribuita uniformemente su (0, 1), e che dato X = x, Y sia distribuita uniformemente su (0, x).
Le distribuzioni uniformi multivariate costituiscono un'interpretazione geometrica di alcuni dei concetti presentati in questo paragrafo. Ricordiamo prima di tutto che la misura standard su Rn è
mn(A) = A 1dx per A Rn.
In particolare, m1 è la misura di lunghezza su R, m2 è la misura di area su R2 e m3 è la misura di volume su R3.
Supponiamo ora che
X assuma valori in Rj, che Y assuma valori
in Rk e che (X, Y) sia distribuito uniformemente su R
R
f(x, y) = 1 / mj + k(R) per (x, y) R (e f(x, y) = 0 altrimenti).
24. Mostra che la distribuzione condizionata di Y dato X = x è distribuita uniformemente sulla sezione incrociata
{y Rk: (x, y) R}.
25. Mostra che la distribuzione condizionata di X dato Y = y è distribuita uniformemente sulla sezione incrociata
{x Rj: (x, y) R}.
Nell'ultimo paragrafo sulle distribuzioni congiunte, abbiamo visto che anche se (X, Y) è distribuito uniformemente, le distribuzioni marginali di X e Y non sono in genere uniformi. Ma, come abbiamo visto, le distribuzioni condizionate sono sempre uniformi.
26. Supponi che (X, Y) sia distribuito uniformemente sul quadrato R = [-6, 6]2.
27. Nell'esperimento uniforme bivariato, seleziona quadrato dal menu a tendina. Simula 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e i grafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussione precedente.
28. Supponi che (X, Y) sia distribuito uniformemente sul triangolo R = {(x, y): -6 < y < x < 6} R2.
29. Nell'esperimento uniforme bivariato, seleziona triangolo dal menu a tendina. Simula 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e i grafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussione precedente.
30. Supponi che (X, Y) sia distribuito uniformemente sul cerchio R = {(x, y): x2 + y2 < 36}.
31. Nell'esperimento uniforme bivariato, seleziona cerchio dal menu a tendina. Simula 5000 replicazioni, aggiornando ogni 10. Osserva i punti della dispersione e i grafici delle distribuzioni marginali. Interpreta i risultati nel contesto della discussione precedente.
32. Supponi che (X, Y, Z) sia distribuito uniformemente su R = {(x, y, z): 0 < x < y < z} R3.
Coi nostri soliti insiemi S e T, supponiamo che Px sia una misura di probabilità su T per ogni x S. Supponiamo inoltre che g sia una funzione di densità di probabilità su S. Possiamo ottenere una nuova misura di probabilità su T ponderando (o miscelando) le distribuzioni date sulla base di g.
33. Supponiamo in primo luogo che S sia numerabile, e che g sia una funzione di densità di probabilità discreta su S. Prova che la P definita sotto è una misura di probabilità su T:
P(B) = x in S g(x) Px(B) per B T.
34. Nel contesto dell'esercizio precedente, supponi che Px sia una distribuzione discreta (rispettivamente continua) con funzione di densità hx per ogni x appartenente a S. Prova che anche P è discreta (rispettivamente continua) con funzione di densità h data da
h(y) = x appartenente a S g(x) hx(y) per y appartenente a T.
35. Supponi ora che S sia un sottinsieme di Rn e che g sia una funzione di densità di probabilità continua su S. Mostra che la P definita sotto è una misura di probabilità su T:
P(B) = S g(x)Px(B)dx per B T.
36. Nel contesto dell'esercizio precedente, supponi che Px sia una distribuzione discreta (rispettivamente continua) con funzione di densità hx per ogni x appartenente a S. Prova che anche P è discreta (rispettivamente continua) con funzione di densità h data da
h(y) = S g(x) hx(y) dx per y appartenente a T.
In entrambi i casi, la distribuzione P è detta mistura delle distribuzioni Px, x S, con densità di mistura g.
Si può avere una mistura di distriubuzioni senza avere variabili casuali definite su uno spazio di probabilità comune. In ogni caso, le misture sono intimamente legate alle distribuzioni condizionate. Per tornare al nostro ambiente di riferimento, supponiamo che X e Y siano variabili casuali relative a un esperimento a valori, rispettivamente, in S e T. Supponiamo che X abbia distribuzione discreta oppure continua, con densità g. L'esercizio seguente è semplicemente una diversa versione del teorema delle probabilità totali.
37. Prova che la distribuzione di Y è una mistura delle distribuzioni condizionate di Y dato X = x, in x appartenente a S, con densità di mistura g.
38. Supponi che X sia una variabile casuale a valori in S Rn, con ditribuzione mista discreta e continua. Prova che la distribuzione di X è una mistura di una distribuzione discreta e una continua, nel senso definito sopra.