Laboratorio virtuale > Distribuzioni > 1 [2] 3 4 5 6 7 8 9
Al solito, supponiamo di avere un esperimento casuale con spazio campionario R e misura di probabilità P. Una variabile casuale X a valori in un sottinsieme S di Rn si dice avere distribuzione continua se
P(X = x) = 0 per ogni x appartenente a S.
Il fatto che X assuma ogni singolo valore con probabilità 0 può sembrare paradossale in prima battuta, ma non è concettualmente diverso dall'affermare che un intervallo di R può avere lunghezza positiva anche se è composto da punti che hanno tutti lunghezza 0. Similmente, una regione di R2 può avere area positiva anche se composta di punti (o curve) che hanno tutti area 0.
1. Mostra che,se C è un sottinsieme numerabile di S, allora P(X C) = 0.
Quindi, le distribuzioni continue sono diverse dalle distribuzioni discrete, per le quali tutta la massa di probabilità è concentrata su un insieme discreto. Per una distribuzione continua, la massa di probabilità è ripartita in senso continuo su S. Nota inoltre che S stesso non può essere numerabile.
Supponiamo, di nuovo, che X abbia distribuzione continua su un sottinsieme S di Rn. Una funzione a valori reali f definita su S si dice essere una funzione di densità di probabilità per X se f soddisfa le seguenti proprietà:
Se n > 1, gli integrali delle proprietà (b) e (c) sono multipli rispetto a sottinsiemi di Rn, e
dx = dx1 dx2 ··· dxn dove x = (x1, x2, ..., xn).
In realtà, tecnicamente, f è la denistà di X relativa a una misura n-dimensionale mn, che ricordiamo essere data da
mn(A) = A 1dx per A Rn.
Notiamo che mn(S) dev'essere positivo (e può essere infinito). In particolare,
In ogni caso, ricordiamo che i casi in poche dimensioni (n = 1, 2, 3), a parte le finalità illustrative, non hanno particolare rilievo in probabilità. Gli esperimenti casuali più importanti di solito coinvolgono molte variabili casuali (cioè un vettore casule); raramente si ha una variabile casuale singola e isolata. Notiamo infine che possiamo sempre estendere f per la densità su tutto Rn ponendo f(x) = 0 per gli x non appartenenti a S. Questa estensione a volte semplifica la notazione.
La proprietà (c) è particolarmente importante perché implica che la distribuzione di probabilità di X è completamente individuata dalla funzione di densità. Di converso, ogni funzione che soddisfa le proprietà (a) e (b) è una funzione di densità di probabilità, per cui la proprietà (c) può essere utilizzata per definire una distribuzione continua su S.
Un elemento x appartenente a S per cui la densità f è massima è detto moda della distribuzione. Se esiste un'unica moda, la si usa a volte come misura del centro della distribuzione.
A differenza del caso discreto, la funzione di densità di una distribuzione continua non è unica. Notiamo che i valori di f su un insieme finito (o anche numerabile) di punti può essere modificata con altri valori non negativi, e le proprietà (a), (b) e (c) continuerebbero a valere. Il fatto importante è che sono rilevanti solo gli integrali di f. Un'altra differenza è che f(x) può essere maggiore di 1; all'atto pratico, f può essere illimitato su S. Ricorda che f(x) non è una probabilità, è una densità di probabilità: f(x)dx è approssimativamente la probabilità che X giaccia in un intervallo n-dimensionale centrato su x con lati di lunghezza dx1, ..., dxn, se tali lunghezze sono piccole.
2. Sia f(t) = r exp(-rt) per t > 0, dove r > 0 è un parametro. Prova che f è una funzione di densità di probabilità.
La distribuzione definita dalla funzione di densità dell'esercizio precedente è detta distributzione esponenziale con parametro di velocità r. Questa distribuzione è utilizzata spesso per modellare durate aleatorie, sotto certe assunzioni. La distributzione esponenziale è analizzata in dettaglio nel capitolo sui processi di Poisson.
3. La durata T di un certo apparecchio (in unità di 1000 ore) ha distribuzione esponenziale con parametro 1/2. Trova P(T > 2).
4. Nell'esperimento esponenziale, poni r = 1/2. Simula 1000 replicazioni, aggiornando ogni 10, e osserva la convergenza della funzione di densità empirica alla sua controparte teorica.
5. Nel problema di Bertrand, un certo angolo casuale A ha funzione di densità f(a) = sin(a), 0 < a < / 2.
6. Nell'esperimento di Bertrand, seleziona il modello con distanza uniforme. Simula 200 replicazioni, aggiornando ogni volta, e calcola la probabilità empirica dell'evento {A < / 4}. Confrontala con la probabilità trovata nell'esercizio precedente.
7. Sia gn(t) = exp(-t) tn / n! per t > 0 dove n è un parametro intero non negativo.
Abbiamo mostrato nel paragrafo precedente sulle distribuzioni discrete che ft(n) = gn(t) è una funzione di densità sugli interi non negativi per ogni t > 0. La distribuzione individuata dalla densità gn è detta distribuzione gamma; n + 1 è il parametro di forma. La distribuzione gamma è studiata in dettaglio nel capitolo sui processi di Poisson.
8. Supponi che la durata di un apparecchio T (in unità di 1000 ore) abbia distribuzione gamma con n = 2. Trova P(T > 3).
9. Nell'esperimento gamma, poni r = 1 e k = 3. Replica l'esperimento 200 volte, aggiornando ogni volta. Calcola la probabilità empirica dell'evento {T > 3} e confrontala con la probabilità teorica dell'esercizio precedente.
10. Supponi che g sia una funzione non negativa su S. Sia
c = S g(x)dx.
Prova che se c è positivo e finito, allora f(x) = g(x) / c per x appartenente a S definisce una funzione di densità di probabilità su S.
Osserva che i grafici di g e f sembrano identici, a parte la diversa scala dell'asse verticale. Il risultato dell'esercizio precedente può essere quindi usato per costruire funzioni di densità con le proprietà desiderate (dominio, forma, simmetria e così via). La costante c è detta a volte costante di normalizzazione.
11. Sia g(x) = x2(1 - x) per 0 < x < 1.
La distribuzione presentata nell'esercizio precedente è un'esempio di distribuzione beta.
12. Sia g(x) = 1 / xa per x > 1, dove a > 0 è un parametro.
La distribuzione definita nell'esercizio precedente è detta distribuzione di Pareto con parametro di forma a.
13. Sia g(x) = 1 / (1 + x2) per x appartenente a R.
La distribuzione definita nell'esercizio precedente è detta distribuzione di Cauchy, in onore di Augustin Cauchy. Si tratta di un membro della famiglia di distribuzioni t di Student.
14. Nell'applet variabile casuale, seleziona la distribuzione t di Student. Poni n = 1 per avere la distribuzione di Cauchy e simula 1000 replicazioni, aggiornando ogni 10. Osserva come la funzione di densità empirica viene a coincidere con quella teorica.
15. Sia g(z) = exp(-z2 / 2).
La distribuzione definita nell'esercizio precedente è la distribuzione normale standardizzata, forse la distribuzione più importante di tutta la probabilità.
16. Nell'applet variabile casuale, seleziona la distribuzione normale (i parametri predefiniti sono per la distribuzione normale standardizzata). Simula 1000 replicazioni, aggiornando ogni 10. Osserva come la funzione di densità empirica viene a coincidere con quella teorica.
17. Sia f(x, y) = x + y per 0 < x < 1, 0 < y < 1.
18. Sia g(x, y) = x + y per 0 < x < y < 1.
19. Sia g(x, y) = x2y per 0 < x < 1, 0 < y < 1.
20. Sia g(x, y) = x2y per 0 < x < y < 1.
21. Sia g(x, y, z) = x + 2y + 3z per 0 < x < 1, 0 < y < 1, 0 < z < 1.
Gli esercizi seguenti trattano un'importante tipologia di distribuzioni continue.
22. Supponi che S sia sottinsieme di Rn con misura positiva e finita mn(S). Prova che
P(X A) = mn(A) / mn(S) per A S se X ha la funzione di densità di (a).
Un variabile casuale X con la funzione di densità dell'esercizio 14 è detta avere distribuzione uniforme continua su S. La distribuzione uniforme su un rettangolo del piano ha un ruolo fondamentale nei modelli geometrici.
23. Supponi che (X, Y) sia distribuito uniformemente sul quadrato S = (-6, 6)2. Trova P(X > 0, Y > 0).
24. Nell'esperimento uniforme bivariato, seleziona quadrato nel menu a tendina. Simula 100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione. Calcola la probabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilità teorica.
25. Supponi che (X, Y) sia distribuito uniformemente sul triangolo S = {(x, y): -6 < y < x < 6}. Trova P(X > 0, Y > 0)
26. Nell'esperimento uniforme bivariato, seleziona triangolo nel menu a tendina. Simula 100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione. Calcola la probabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilità teorica.
27. Supponi che (X, Y) sia distribuito uniformemente sul cerchio S = {(x, y): x2 + y2 < 36}. Trova P(X > 0, Y > 0).
28. Nell'esperimento uniforme bivariato, seleziona cerchio nel menu a tendina. Simula 100 replicazioni, aggiornando ogni volta, osservando i punti della dispersione. Calcola la probabilità empirica dell'evento {X > 0, Y > 0} e confrontala con la probabilità teorica.
29. Supponi che (X, Y, Z) sia distribuito uniformemente sul cubo (0, 1)3. Trova P(X < Y < Z)
30. Il tempo T (in minuti) necessario per eseguire una certa operazione è distribuito uniformemente sull'intervallo (15, 60).
Supponi che X sia una variabile casuale a valori in un sottinsieme S di Rn, con distribuzione continua con funzione di densità f. La funzione di densità X, ovviamente, è basata sulla misura di probabilità sottostante P sullo spazio campionario dell'esperimento, che indichiamo con R. Questa misura può essere una misura di probabilità condizionata, dato un evento E (sottinsieme di R), con P(E) > 0. La notazione consueta è
f(x | E), x S.
Si rammenti che, a parte la notazione, non si stanno introducendo nuovi concetti. La funzione riportata poc'anzi è una funzione di densità continua, ovvero soddisfa le proprietà (a) e (b), mentre la porprietà (c) diventa
A f(x | E)dx = P(X A | E) per A S.
Tutti i risultati che valgono per le densità in generale hanno controparti analoghe per le densità condizionate.
31. Supponi che B S con P(X B) = B f(x)dx > 0. Prova che la densità condizionata di X dato X B è
32. Supponi che S sia un sottinsieme di Rn con misura positiva e finita mn(S) e che B S con mn(B) > 0. Mostra che se X è distribuito uniformemente su S, allora la distribuzione condizionata di X dato X B è uniforme su B.
33. Supponi che (X, Y) abbia funzione di densità f(x, y) = x + y per 0 < x < 1, 0 < y < 1. Trova la densità condizionata di (X, Y) dato X < 1/2, Y < 1/2.
Se {x1, x2, ..., xn} Rn è un insieme di dati per una variabile continua, X, allora una funzione di densità empirica può essere calcolata partizionando il campo di variazione dei dati in sottinsiemi di ampiezza minore, e calcolare le densità di punti in ogni sottinsieme. Le funzioni di densità empirica sono studiate dettagliatamente nel capitolo sui campioni casuali.
34. Nei dati sulla cicala, BW indica il peso corporeo, BL la lunghezza corporea e G il sesso. Costruisci una funzione di densità empirica per ciascuno dei seguenti e disegna tali funzioni in un grafico a barre:
35. Nei dati sulla cicala, WL indica la lunghezza delle ali e WW la larghezza delle ali. Costruisci una funzione di densità empirica per (WL, WW).
Contrariamente al caso discreto, l'esistenza di una funzione di densità per una distribuzione continua è un'assunzione che si fa. Una variabile casuale può avere distribuzione continua su un sottinsieme S di Rn ma senza funzione di densità; la distribuzione è detta a volte degenere. Vediamo ora alcuni casi in cui tali distribuzioni possono presentarsi.
Supponiamo in primo luogo che X sia una variabile casuale che assume valori in un sottinsieme S di Rn con mn(S) = 0. È possibile che X abbia distribuzione continua, ma X può non avere una densità relativa a mn. In particolare, la proprietà (c) della definizione può non valere, poiché l'integrale di sinistra sarebbe 0 per ogni sottinsieme A di S. Comunque, in molti casi, X può essere definita in termini di variabili casuali continue su spazi di dimensione minore che posseggono densità.
Per esempio, supponiamo che U sia una variabile casuale con distribuzione continua su un sottinsieme T di Rk (dove k < n), e che X = h(U) per qualche funzione continua h da T in Rn. Ogni evento definito in termini di X può essere trasformato in un evento definito in termini di U. L'esercizio seguente illustra questa situazione
36. Supponi che U sia distribuita uniformemente sull'intervallo (0, 2). Sia X = cos(U), Y = sin(U).
Un'altra situazione di questo tipo si verifica quando un vettore casuale X appartenente a Rn (n > 1) ha alcuni componenti con distribuzioni discrete e altri con distribuzioni continue. Tali distribuzioni a componenti misti sono studiate più dettagliatamente nel paragrafo sulle distribuzioni miste; l'esercizio seguente, in ogni caso, illustra la situazione.
37. Supponi che X sia distribuita uniformemente su {0, 1, 2}, Y distribuita uniformemente su (0, 2) e che X e Y siano indipendenti.
Infine, è possibile anche avere una distribuzione continua su un sottinsieme S di Rn con mn(S) > 0, ma di nuovo senza funzione di densità. Tali distribuzioni si dicono singolari, e si applicano raramente. Per un esempio, in ogni caso, vedi il caso del gioco aggressivo nel capitolo su rosso e nero.