Download Probabilità e variabili casuali: spazio campionario, eventi, probabilità, variabile and more Essays (high school) Architecture in PDF only on Docsity!
3.1 - Calcolo probabilità e variabili casuali
3.1 - Calcolo delle probabilità e generalità sulle variabili casuali
3.1 - Calcolo probabilità e variabili casuali
FONDAMENTI DI CALCOLO DELLE PROBABILITÀ
**Tre concetti primitivi:
- la probabilità
- la prova
- l'evento**
"L'EVENTO SI PRESENTA COME RISULTATO DELLA PROVA CON UNA CERTA PROBABILITÀ"
LA PROVA
Concetto che si evolve insieme a quello di probabilità, caratterizzata da:
Definizioni di probabilità Incertezza del risultato
Ripetibilità Equiprob. dei risultati
CLASSICA SI SI SI
FREQUENTISTA SI SI NO
SOGGETTIVISTA SI NO NO
La prova è finalizzata a conoscere la distribuzione del carattere indagato secondo le sue modalità. Tale rilevazione avviene avendo selezionato a sorte le unità statistiche e dunque assume la natura di esperimento.
Le singole modalità del carattere di interesse, o insiemi di tali modalità, rappresentano eventi che avranno una certa probabilità di accadimento.
3.1 - Calcolo probabilità e variabili casuali
LA PROBABILITA'
DEF. CLASSICA (Laplace e altri)
La probabilità di un evento è data dal rapporto tra il numero di casi favorevoli a
quell'evento e il numero di casi possibili, posti che questi siano tutti egualmente possibili
Postulato empirico del caso
In un gran numero di prove la frequenza relativa con cui si presenta un certo evento tende
ad approssimare la probabilità dell'evento stesso.
DEF. FREQUENTISTA
La probabilità è il limite della frequenza relativa con cui si presenta un certo evento
quando il numero delle prove tende all'infinito
DEF. SOGGETTIVISTA
La probabilità è il grado di realizzabilità che un individuo coerente assegna ad un certo
evento; cioè il grado di fiducia che il soggetto, posto di fronte alla prova, ha nel verificarsi
dell'evento.
3.1 - Calcolo probabilità e variabili casuali
L'EVENTO
Può considerarsi evento sia un insieme di risultati, sia un singolo risultato di una
prova.
Indicando con Ω l'insieme di tutti i risultati ωi della prova, l'evento E sarà costituito dal
sottoinsieme di Ω comprendente tutti quegli ωi per i quali è verificata la definizione di E
E = { ωωωω i ∈∈∈∈ ΩΩΩΩ : la definizione di E è vera}
Se la prova è costituita da due sottoprove tali che:
- Ω 1 è l'insieme dei risultati della prima sottoprova, e
- Ω 2 è l'insieme dei risultati della seconda sottoprova
l'insieme dei risultati della prova complessiva sarà dato dal prodotto cartesiano dei due
insiemi relativi alle due sottoprove:
ΩΩΩΩ = ΩΩΩΩ 1 x ΩΩΩΩ 2
e su tale insieme Ω verrà definito l'evento E.
3.1 - Calcolo probabilità e variabili casuali
SPAZIO CAMPIONARIO ED EVENTI
Si definisce spazio campionario (S) l'insieme dei punti rappresentativi dei possibili
risultati di una prova
Spazio campionario discreto: numero finito o infinità numerabile di possibili risultati
Spazio campionario continuo: numero infinito di possibili risultati
Si definisce evento un sottoinsieme dello spazio campionario
ALCUNI TIPI DI EVENTI
- Evento certo: si presenta sempre come risultato della prova (I)
- Evento impossibile: non si presenta mai come risultato della prova ( ∅∅∅∅ )
- Evento condizionato B A: è l'evento che si verifica tutte le volte che, essendosi
verificato nella prova l'evento A, si verifica l'evento B.
L'evento A funge da nuovo sistema di definizione dei risultati della prova e quindi :
BA = {ωi∈ A: la definizione di B è vera}
3.1 - Calcolo probabilità e variabili casuali
Primo Postulato
Gli eventi formano un'algebra di Boole completa, ovvero sulla quale sono definite
tre operazioni:
- negazione
- somma o unione
- prodotto o intersezione
Il fatto che l'algebra di Boole sia completa significa che ciascuna operazione sugli eventi
dà ancora luogo ad un evento appartenente all'insieme originario.
Negazione A è la negazione di A ed è quell'evento dato dal non verificarsi di A come risultato della prova
Somma o Unione A∪B rappresenta quell'evento che si verifica quando, come risultato della prova, si presenta o A, o B, o entrambi
A
A
B
3.1 - Calcolo probabilità e variabili casuali
Prodotto o intersezione A∩B rappresenta quell'evento che si verifica quando, come risultato della prova, si presentano congiuntamente A e B
A
B
3.1 - Calcolo probabilità e variabili casuali
ALTRI TIPI DI EVENTI
- Evento contrario A e A
- Eventi incompatibili A ∩∩∩∩ B = ∅∅∅∅
- Eventi necessari A ∪∪∪∪ B = I
Secondo Postulato
La probabilità P(A) è una funzione di insieme tale che
P(A) ≥≥≥≥ 0
e che sia definita per ogni evento.
Quindi la probabilità è una funzione che assegna a ciascuno degli elementi dell'insieme
degli eventi un valore non negativo
Il passaggio dalla PROVA alla PROBABILITA' dell'EVENTO avviene quindi in tre tappe
successive:
1 La prova genera un insieme di risultati
(gli eventi elementari ωi)
Lancio di un dado
2 Sui risultati vengono definiti gli eventi
come insieme di possibili risultati
A = (2, 4, 6)
B = (1, 3, 5)
3 Si associa a ciascun evento
dell'insieme un valore numerico non
negativo
P(A)
P(B)
3.1 - Calcolo probabilità e variabili casuali
Terzo Postulato
La probabilità dell'evento certo è uguale a uno
P(I) = 1
Quarto Postulato (principio delle probabilità totali per eventi incompatibili)
Dati due eventi A e B tali che A ∩∩∩∩ B = ∅∅∅∅ , la probabilità dell'unione dei due eventi è
P(A ∪∪∪∪ B) = P(A) + P(B)
Quinto Postulato (principio delle probabilità composte)
La probabilità dell'intersezione di due eventi è pari al prodotto tra la probabilità di
un evento e la probabilità dell'altro evento condizionato al primo.
P(A ∩∩∩∩ B) = P(A) P(B|A)
oppure
P(A ∩∩∩∩ B) = P(B) P(A|B)
Indipendenza tra due eventi
B è indipendente da A se P(B|A) = P(B| A ) = P(B)
In tal caso P(A ∩∩∩∩ B) = P(A) P(B)
A è indipendente da B se P(A|B) = P(A| B ) = P(A)
(se A è indipendente da B, anche B è indipendente da A)
3.1 - Calcolo probabilità e variabili casuali
Alcune Proprietà sulla Probabilità
1) La probabilità di un evento è compresa tra 0 e 1.
Infatti
I=A∪ A e A∩ A =
IV POST P(I) = P(A∪ A ) = P(A)+P( A ) = 1
P(A) ≤ P(I) = 1
II POST P(A) ≥ 0
Quindi 0 ≤≤≤≤ P(A) ≤≤≤≤ 1
2) La probabilità di un evento negato è uguale al complemento ad 1 dell'evento.
Infatti
P(A) + P( A ) = 1
Quindi P( A ) = 1 - P(A)
3) La probabilità dell'evento impossibile è 0
Infatti
S = ∅ e S∩ S = ∅
P(S) = P(S∪ S ) = P(S) + P( S ) = P(S) + P(∅) =
Quindi P( ∅∅∅∅ ) = 0
3.1 - Calcolo probabilità e variabili casuali
1) La probabilità dell'unione di due eventi non incompatibili è la somma delle
probabilità dei due eventi meno la probabilità dell'intersezione tra gli eventi
P(A ∪∪∪∪ B) = P(A) + P(B) - P(A ∩∩∩∩ B)
A
B
Formula di Bayes (1764)
Si abbiano due cause A e A che possano entrambe dar luogo allo stesso evento E come risultato di una certa prova. Una volta verificatosi l'evento E, è possibile risalire alla probabilità che abbia agito
la causa A o la causa A nel determinarlo?
Dal 5° P. P(A ∩∩∩∩ E) = P(A) P(E|A)
P( A ∩∩∩∩ E) = P( A ) P(E| A )
e poiché E = E ∩∩∩∩ I = E ∩∩∩∩ (A ∪∪∪∪ A ) = (E ∩∩∩∩ A) ∪∪∪∪ (E ∩∩∩∩ A )
allora P(E)=P(E ∩∩∩∩ A) + P(E ∩∩∩∩ (^) A ) =
P(A) P(E|A) + P( A ) P(E| A ) e quindi
P(A|E) = P(E)
P(E ∩ A )
P(E)
P(A) P(E|A)
P(A)P(E|A)+P(A)P(E|A)
P(A)P(E|A)
P( A |E)=
P(A)P(E|A)+P(A)P(E|A)
P(A)P(E|A)
Essendo:
- P(A|E) e P( A |E) le c.d. probabilità a posteriori, e dunque le probabilità che
essendosi verificato E abbia agito la causa A (o la causa A );
- P(A) e P( (^) A ) le probabilità a priori delle cause;
- P(E|A) e P(E| A ) le probabilità probative, ossia le probabilità dell'evento avendo
agito la causa A (o (^) A ). Anche detta verosimiglianza.
3.1 - Calcolo probabilità e variabili casuali
Ar è la generica r-esima causa
P(Ar|E) =
P(A)P(E|A)
P(A)P(E|A)
r r^ r
r r
Si ipotizza agiscano due cause: A e A , con probabilità a priori P(A) e P( A ):
Problema diretto
Essendosi verificato l'evento E, determinare P(E), essendo note P(E|A) e P(E| A )
Problema inverso
Essendosi verificato l'evento E, determinare quale causa ha agito, essendo note le
probabilità a priori delle cause P(A) e P( A ) e le probabilità probative P(E|A) e
P(E| A )
3.1 - Calcolo probabilità e variabili casuali
Primo esempio (il problema delle urne indistinte)
Urne A: Sono 3 e contengono solo palline bianche Urne A : Sono 9 e in ciascuna le palline bianche sono la metà di quelle contenute Estraggo con ripetizione due palline. Sulla base del risultato devo stabilire qual è la probabilità che siano state estratte da A o A.
Evento: Estraggo 2 palline bianche P(A)=0,25 P( A )=0, P(E|A)=1 P(E| A )=0,50,5=0, P(E)=P(A)P(E|A) + P( A )P(E| A ) = 0,251 + 0,75*0,25 = 0,25 + 0,1875 = 0,
P(A|E) = 0,
0, = 0,57 P( A |E) = 0,
0, = 0,
3.1 - Calcolo probabilità e variabili casuali
Secondo esempio (quale fucile ha fatto centro)
Il fucile F1 spara 18 colpi al secondo, il fucile F2 10 colpi. Il livello di precisione è di
850/1000 per F1 e 900/1000 il fucile F2.
Due tiratori, ciascuno con un fucile sparano ad un bersaglio per 3 secondi. Il bersaglio
risulta colpito da un proiettile. Quale fucile ha colpito il bersaglio?
P(E|F1)=0.85 P(E|F2)=0,
A priori so che
10
18
P(F2)
P(F1)
1 , 7 10 0,
18 0,
P(F2)P(E|F2)
P(F1)P(E|F1)
P(F2|E)
P(F1| E)
×
× = =
E quindi è più probabile che abbia colpito il bersaglio F
3.1 - Calcolo probabilità e variabili casuali
v.c. discrete X x p(x) = p(X=x)
v.c. continue f(x) = p(x ≤ X ≤ x+dx)
3.1 - Calcolo probabilità e variabili casuali
- Prova
- Possibili risultati
- Eventi
- Probabilità eventi
- Variabile o mutabile casuale, definita su eventi
- Probabilità o densità di probabilità per i valori della v.c. o m.c.
3.1 - Calcolo probabilità e variabili casuali
V.c. Discreta V.c. Continua
x 1 , x 2 , …, xi, ..., xn x 1 -x 2 , x 2 -x 3 , …, xn-1-xn
p(xi) = p(X=xi) = pi f(x) ∆x = p(x)
f(x) = p(x ≤ X ≤ x+dx)
funzione di probabilità funz. di densità di prob.
due condizioni: due condizioni:
p(xj) ≥ 0 f(x) ≥ 0
=
k
j 1
p(x j )= 1 ∫
L l
f ( x )dx = 1
Una v.c. può essere rappresentata graficamente ponendo in ascissa i valori assunti dalla v.c. e sull'ordinata le rispettive probabilità
X 0 1 2 3 4 5 6 7 8 9 10
p(x) 0,0002 0,0004 0,0006 0, 1
F(x) 0,0002 0,0006 0,0012 0, 1
X 10 11 12 13 14 15 16 17 18 19
p(x) 0,10021 0,04008 0,00501 0,002 0,00015 5E-05 5E-05 0 0 0 F(x) 0,95265 0,99273 0,99775 0,99975 0,9999 0,99995 1 1 1 1
0,
0,
0,
0,
0,
0,
0,
(^0369121518) X
p(x)
0,
0,
0,
0,
0,
1,
1,
(^0369121518) X
F(x)
VARIABILI CASUALI DOPPIE
Siano A 1 , A 2 , ….., Au, …….., Ak k eventi necessari e incompatibili: ∪u Au = I, e Au ∩ Av = ∅ , ∀ u≠v
- ∀ Au ⇒ xi, ∈ R cui è associata p(X =xi) = p(xi) = pi (V.C. Semplice, discreta)
- ∀ Au ⇒ xi, yj, ∈ R cui è associata p(X= xi e Y= yj ) = p(xi ,yj) = pij (V.C. Doppia, discreta)
essendo p(xi ,yj) = pij una distribuzione di probabilità congiunte
Le coppie xi, yj, formano una v.c. doppia X,Y, ed X e Y rappresentano le due v.c. componenti la v.c. doppia.
V.C. DOPPIA DISCRETA
Se la v.c. X assume le k modalità: x 1 , x 2 , ….., xi, …….., xk
e la v.c. Y assume le h modalità: y 1 , y 2 , ….., yj, …….., yh
allora la v.c. X,Y assume le k x h modalità: x1, y 1 ,. …….., xk, yh
X/Y y 1 … yj … yh x 1 p 11 … p1j … p1h p1. … … … … … … xi pi1 … pij … pih pi. … … … … … … xk pk1 … pkj … pkh pk. p.1 … p.j … p.h 1
Sulla v.c. doppia discreta valgono le due condizioni:
- pij ≥ 0, ∀ i,j
- Σi Σj pij = 1
Σi Σj pij = Σi pi. = Σj p.j = 1
3.1 - Calcolo probabilità e variabili casuali
Le v.c. componenti rappresentano le funzioni di probabilità marginali della v.c. doppia:
- Σi pij = p (^) .j (probabilità della v.c. componente Y)
- Σj pij = p (^) i. (probabilità della v.c. componente X)
Poiché p(xi, yj) = p(X= xi ∩ Y= yj) = p(xi|yj) p(yj) = p(yj|xi) p(xi), si possono definire le funzioni di probabilità condizionate di X a Y e di Y a X:
- h v.c. X|Y : p(X|y 1 ), p(X|y 2 ), …….. , p(X|yj) ,…….. , p(X|yh)
- k v.c. Y|X : p(Y|x 1 ), p(Y|x 2 ), …….. , p(Y|xi) ,…….. , p(Y|xk)
Si definisce funzione di ripartizione congiunta delle due v.c. discrete X,Y,
F(x,y) = p(X≤x e Y≤y)
Considerando la coppia (xt, yv), la funzione di ripartizione congiunta indica la probabilità che X sia al massimo pari a xt e Y al massimo pari a yV
F(x, y) = Σtx^ Σvy^ p(xt,yV)
Caso di indipendenza
Nel caso di indipendenza tra le v.c. X e Y, tutte le v.c. condizionate presentano la medesima distribuzione di probabilità che è quindi pari a quella marginale.
Infatti:
V.C. Y|xi p(yj|xi) = pij|pi. = i.
i..j p
p p = p.j ∀xi
e
V.C. X|yj p(xi|yj) = pij|p.j = .j
i..j p
p p = pi. ∀yj
Come vedremo in seguito, lo studio delle medie delle v.c. condizionate consente di verificare la sussistenza della dipendenza in media; lo studio delle varianze delle v.c. condizionate consente di verificare la loro omoschedasticità.
In particolare:
- se E(X|Yj) = E(X) ∀yj, allora la v.c. X è indipendente in media dalla v.c. Y (η^2 x|y = 0)
- se E(Y|Xi) = E(Y) ∀xi , allora la v.c. Y è indipendente in media dalla v.c. X (η^2 y|x = 0)
- se σ^2 x|yj = Α , ∀yj, le v.c. X|Y sono omoschedastiche (indipendenti in varianza da Y)
- se σ^2 y|xi = B, ∀xi, le v.c. Y|X sono omoschedastiche (indipendenti in varianza da X)
3.1 - Calcolo probabilità e variabili casuali
Valori caratteristici delle distribuzioni di probabilità
Valore atteso
E: expectation, E(X) μμμμ X
E(X) = ΣΣΣΣ i xi p(xi) = ΣΣΣΣ x x p(x) v.c. discreta X, i=1, 2, …, n
E(X) = (^) ∫
+∞ −∞
x f(x) dx v.c. continua X, - ∞∞∞∞ < X < + ∞∞∞∞
Proprietà del valore atteso
Sia c una costante e X e Y due v.c.
- E(c) = c
- E(cX) = c E(X)
- E(X+Y) = E(X) + E(Y)
da cui E(X-μ) = E(X) - E(μ) = μ - μ = 0, e dunque la v.c. scarto da μ ha valore atteso nullo.
3.1 - Calcolo probabilità e variabili casuali
Altre misure di posizione di una v.c. casuale: mediana, quantili e moda
La mediana di una v.c. casuale è ogni valore xm (o Me, o x0,5) tale che:
p(X≤xm) ≤ 0,5 e p(X>xm) < 0,
La mediana bipartisce l'intervallo dei valori ammissibili di X in due intervalli che presentano
la medesima probabilità o densità di probabilità
La mediana è uno dei quantili di una v.c. casuale. Si definisce q-esimo quantile ξq (o
quantile di ordine q xq) ogni valore tale che:
p(X≤ξq) ≤ q e p(X>ξq) < 1 - q, con 0 < q < 1
Il quantile ξq bipartisce l'intervallo dei valori ammissibili di X in due intervalli che
presentano rispettivamente probabilità o densità di probabilità pari a q e 1-q.
Per q=0,5 si ha la mediana ξ0,5; per q = 0,25 il primo quartile ξ0,25, per q=1/3 il primo terzile
ξ1/3, per q=0,01 il primo centile ξ0,01, ecc.
Data v.c. discreta si definisce moda il valore xi di X cui corrisponde la massima probabilità.
Data una v.c. discreta o continua raggruppata in classi si definisce classe modale quella
cui corrisponde la massima densità di frequenza f(x) = p(x)/∆x.
3.1 - Calcolo probabilità e variabili casuali
Misure di dispersione
Data una v.c. casuale X con valore atteso E(X)=μ, si definisce varianza di X [indicata con σ 2 X ,^ σ
2 (X) o Var(X)], il valore atteso della funzione g(X)=(X-μ) 2 :
σσ σσ^2 (X) = E(X- μμμμ )^2
- σσσσ 2 (X) = ΣΣΣΣ i (xi - μμμμ ) 2 p(xi) = ΣΣΣΣ x (x- μμμμ ) 2 p(x) v.c. discreta X, i=1, 2, …, n
- σσσσ^2 (X) = (^) ∫
+∞ −∞ (x- μμμμ )^2 f(x) dx v.c. continua X, - ∞∞∞∞ < X < + ∞∞∞∞
La varianza è la differenza tra il valore atteso del quadrato di X e il quadrato del valore atteso di X. Infatti:
σσ σσ 2 (X) = E(X-μ) 2 = E(X 2
- 2μX) = E(X 2 ) + μ 2 - 2μE(X) = E(X 2 ) - μμμμ 2
Come noto, la radice quadrata positiva della varianza è lo scarto quadratico medio (σX) e il numeratore della varianza è la devianza della v.c. casuale [Dev(X)].
Teorema 1
Sia Y una v.c. trasformata lineare di X, Y=aX+b, essendo a e b due costanti, allora:
Var(Y) = Var (aX + b) = a^2 Var(X),
Teorema 2
Sia Y =
σ
X - μ
una v.c. standardizzata di Y, allora:
E(Y) = E
σ
X - μ
= 0 e Var(Y) = Var
σ
X - μ
Altre misure di dispersione
Campo di variazione o range : xmax - xmin , rappresenta l'ampiezza dell'intervallo nel quale sono compresi tutti i valori assunti dalla variabile
Differenza interquartile : ξ0,75 - ξ0,25 , rappresenta l'ampiezza dell'intervallo che comprende il 50% delle osservazioni centrali
Misure della forma di una v.c.
Misure di asimmetria
Due misure poco affidabili: μ - xm e (ξ0,75 - ξ0,5) - (ξ0,5 - ξ0,25).
La misura più tradizionale: l'indice di asimmetria β 1 di Pearson
ββββ 1 = E
3 X -
. Se β 1 > 0 c'è asimmetria positiva, se β 1 < 0 asimmetria negativa.