Docsity
Docsity

Prepare for your exams
Prepare for your exams

Study with the several resources on Docsity


Earn points to download
Earn points to download

Earn points by helping other students or get them with a premium plan


Guidelines and tips
Guidelines and tips

Probabilità e variabili casuali: spazio campionario, eventi, probabilità, variabile, Essays (high school) of Architecture

Il calcolo di probabilità e variabili casuali, spiegando concetti come spazio campionario, eventi, probabilità eventi, e variabile casuale. Vengono presentate proprietà come idempotenza, commutativa, associativa, distributiva, e indipendenza tra eventi. Inoltre, vengono introdotti i postulati di probabilità totali e composte.

Typology: Essays (high school)

2010/2011

Uploaded on 10/12/2011

bulleri
bulleri 🇮🇹

3.3

(5)

22 documents

1 / 23

Toggle sidebar

This page cannot be seen from the preview

Don't miss anything!

bg1
1
3.1 - Calcolo probabilità e variabili
casuali 1
3.1 - Calcolo delle probabilità e generalità sulle variabili casuali
3.1 - Calcolo probabilità e variabili
casuali 2
FONDAMENTI DI CALCOL
O DELLE PROBABILITÀ
Tre concetti primitivi:
1) la probabilità
2) la prova
3) l'evento
"L'
EVENTO SI PRESENTA COME RISULTATO DELLA PROVA CON UNA CERTA PROBABILITÀ
"
LA PROVA
Concetto che si evolve insieme a quello di probabilità, caratterizzata da:
Definizioni di probabilità Incertezza del
risultato Ripetibilità Equiprob. dei risultati
C
LASSICA
SI SI SI
F
REQUENTISTA
SI SI NO
S
OGGETTIVISTA
SI NO NO
La prova è finalizzata a conoscere la distribuzione del carattere indagato secondo le sue
modalità. Tale rilevazione avviene avendo selezionato a sorte le unità statistiche e dunque
assume la natura di esperimento.
Le singole modalità del carattere di interesse, o insiemi di tali modalità, rappresentano
eventi che avranno una certa probabilità di accadimento.
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17

Partial preview of the text

Download Probabilità e variabili casuali: spazio campionario, eventi, probabilità, variabile and more Essays (high school) Architecture in PDF only on Docsity!

3.1 - Calcolo probabilità e variabili casuali

3.1 - Calcolo delle probabilità e generalità sulle variabili casuali

3.1 - Calcolo probabilità e variabili casuali

FONDAMENTI DI CALCOLO DELLE PROBABILITÀ

**Tre concetti primitivi:

  1. la probabilità
  2. la prova
  3. l'evento**

"L'EVENTO SI PRESENTA COME RISULTATO DELLA PROVA CON UNA CERTA PROBABILITÀ"

LA PROVA

Concetto che si evolve insieme a quello di probabilità, caratterizzata da:

Definizioni di probabilità Incertezza del risultato

Ripetibilità Equiprob. dei risultati

CLASSICA SI SI SI

FREQUENTISTA SI SI NO

SOGGETTIVISTA SI NO NO

La prova è finalizzata a conoscere la distribuzione del carattere indagato secondo le sue modalità. Tale rilevazione avviene avendo selezionato a sorte le unità statistiche e dunque assume la natura di esperimento.

Le singole modalità del carattere di interesse, o insiemi di tali modalità, rappresentano eventi che avranno una certa probabilità di accadimento.

3.1 - Calcolo probabilità e variabili casuali

LA PROBABILITA'

DEF. CLASSICA (Laplace e altri)

La probabilità di un evento è data dal rapporto tra il numero di casi favorevoli a

quell'evento e il numero di casi possibili, posti che questi siano tutti egualmente possibili

Postulato empirico del caso

In un gran numero di prove la frequenza relativa con cui si presenta un certo evento tende

ad approssimare la probabilità dell'evento stesso.

DEF. FREQUENTISTA

La probabilità è il limite della frequenza relativa con cui si presenta un certo evento

quando il numero delle prove tende all'infinito

DEF. SOGGETTIVISTA

La probabilità è il grado di realizzabilità che un individuo coerente assegna ad un certo

evento; cioè il grado di fiducia che il soggetto, posto di fronte alla prova, ha nel verificarsi

dell'evento.

3.1 - Calcolo probabilità e variabili casuali

L'EVENTO

Può considerarsi evento sia un insieme di risultati, sia un singolo risultato di una

prova.

Indicando con Ω l'insieme di tutti i risultati ωi della prova, l'evento E sarà costituito dal

sottoinsieme di Ω comprendente tutti quegli ωi per i quali è verificata la definizione di E

E = { ωωωω i ∈∈∈∈ ΩΩΩΩ : la definizione di E è vera}

Se la prova è costituita da due sottoprove tali che:

  • Ω 1 è l'insieme dei risultati della prima sottoprova, e
  • Ω 2 è l'insieme dei risultati della seconda sottoprova

l'insieme dei risultati della prova complessiva sarà dato dal prodotto cartesiano dei due

insiemi relativi alle due sottoprove:

ΩΩΩΩ = ΩΩΩΩ 1 x ΩΩΩΩ 2

e su tale insieme Ω verrà definito l'evento E.

3.1 - Calcolo probabilità e variabili casuali

SPAZIO CAMPIONARIO ED EVENTI

Si definisce spazio campionario (S) l'insieme dei punti rappresentativi dei possibili

risultati di una prova

Spazio campionario discreto: numero finito o infinità numerabile di possibili risultati

Spazio campionario continuo: numero infinito di possibili risultati

Si definisce evento un sottoinsieme dello spazio campionario

ALCUNI TIPI DI EVENTI

  • Evento certo: si presenta sempre come risultato della prova (I)
  • Evento impossibile: non si presenta mai come risultato della prova ( ∅∅∅∅ )
  • Evento condizionato B  A: è l'evento che si verifica tutte le volte che, essendosi

verificato nella prova l'evento A, si verifica l'evento B.

L'evento A funge da nuovo sistema di definizione dei risultati della prova e quindi :

BA = {ωi∈ A: la definizione di B è vera}

3.1 - Calcolo probabilità e variabili casuali

Primo Postulato

Gli eventi formano un'algebra di Boole completa, ovvero sulla quale sono definite

tre operazioni:

  • negazione
  • somma o unione
  • prodotto o intersezione

Il fatto che l'algebra di Boole sia completa significa che ciascuna operazione sugli eventi

dà ancora luogo ad un evento appartenente all'insieme originario.

Negazione A è la negazione di A ed è quell'evento dato dal non verificarsi di A come risultato della prova

Somma o Unione A∪B rappresenta quell'evento che si verifica quando, come risultato della prova, si presenta o A, o B, o entrambi

A

A

B

3.1 - Calcolo probabilità e variabili casuali

Prodotto o intersezione A∩B rappresenta quell'evento che si verifica quando, come risultato della prova, si presentano congiuntamente A e B

A

B

3.1 - Calcolo probabilità e variabili casuali

ALTRI TIPI DI EVENTI

  • Evento contrario A e A
  • Eventi incompatibili A ∩∩∩∩ B = ∅∅∅∅
  • Eventi necessari A ∪∪∪∪ B = I

Secondo Postulato

La probabilità P(A) è una funzione di insieme tale che

P(A) ≥≥≥≥ 0

e che sia definita per ogni evento.

Quindi la probabilità è una funzione che assegna a ciascuno degli elementi dell'insieme

degli eventi un valore non negativo

Il passaggio dalla PROVA alla PROBABILITA' dell'EVENTO avviene quindi in tre tappe

successive:

1 La prova genera un insieme di risultati

(gli eventi elementari ωi)

Lancio di un dado

2 Sui risultati vengono definiti gli eventi

come insieme di possibili risultati

A = (2, 4, 6)

B = (1, 3, 5)

3 Si associa a ciascun evento

dell'insieme un valore numerico non

negativo

P(A)

P(B)

3.1 - Calcolo probabilità e variabili casuali

Terzo Postulato

La probabilità dell'evento certo è uguale a uno

P(I) = 1

Quarto Postulato (principio delle probabilità totali per eventi incompatibili)

Dati due eventi A e B tali che A ∩∩∩∩ B = ∅∅∅∅ , la probabilità dell'unione dei due eventi è

P(A ∪∪∪∪ B) = P(A) + P(B)

Quinto Postulato (principio delle probabilità composte)

La probabilità dell'intersezione di due eventi è pari al prodotto tra la probabilità di

un evento e la probabilità dell'altro evento condizionato al primo.

P(A ∩∩∩∩ B) = P(A) P(B|A)

oppure

P(A ∩∩∩∩ B) = P(B) P(A|B)

Indipendenza tra due eventi

B è indipendente da A se P(B|A) = P(B| A ) = P(B)

In tal caso P(A ∩∩∩∩ B) = P(A) P(B)

A è indipendente da B se P(A|B) = P(A| B ) = P(A)

(se A è indipendente da B, anche B è indipendente da A)

3.1 - Calcolo probabilità e variabili casuali

Alcune Proprietà sulla Probabilità

1) La probabilità di un evento è compresa tra 0 e 1.

Infatti

I=A∪ A e A∩ A =

IV POST P(I) = P(A∪ A ) = P(A)+P( A ) = 1

P(A) ≤ P(I) = 1

II POST P(A) ≥ 0

Quindi 0 ≤≤≤≤ P(A) ≤≤≤≤ 1

2) La probabilità di un evento negato è uguale al complemento ad 1 dell'evento.

Infatti

P(A) + P( A ) = 1

Quindi P( A ) = 1 - P(A)

3) La probabilità dell'evento impossibile è 0

Infatti

S = ∅ e S∩ S = ∅

P(S) = P(S∪ S ) = P(S) + P( S ) = P(S) + P(∅) =

Quindi P( ∅∅∅∅ ) = 0

3.1 - Calcolo probabilità e variabili casuali

1) La probabilità dell'unione di due eventi non incompatibili è la somma delle

probabilità dei due eventi meno la probabilità dell'intersezione tra gli eventi

P(A ∪∪∪∪ B) = P(A) + P(B) - P(A ∩∩∩∩ B)

A

B

Formula di Bayes (1764)

Si abbiano due cause A e A che possano entrambe dar luogo allo stesso evento E come risultato di una certa prova. Una volta verificatosi l'evento E, è possibile risalire alla probabilità che abbia agito

la causa A o la causa A nel determinarlo?

Dal 5° P. P(A ∩∩∩∩ E) = P(A) P(E|A)

P( A ∩∩∩∩ E) = P( A ) P(E| A )

e poiché E = E ∩∩∩∩ I = E ∩∩∩∩ (A ∪∪∪∪ A ) = (E ∩∩∩∩ A) ∪∪∪∪ (E ∩∩∩∩ A )

allora P(E)=P(E ∩∩∩∩ A) + P(E ∩∩∩∩ (^) A ) =

P(A) P(E|A) + P( A ) P(E| A ) e quindi

P(A|E) = P(E)

P(E ∩ A )

P(E)

P(A) P(E|A)

P(A)P(E|A)+P(A)P(E|A)

P(A)P(E|A)

P( A |E)=

P(A)P(E|A)+P(A)P(E|A)

P(A)P(E|A)

Essendo:

  • P(A|E) e P( A |E) le c.d. probabilità a posteriori, e dunque le probabilità che

essendosi verificato E abbia agito la causa A (o la causa A );

  • P(A) e P( (^) A ) le probabilità a priori delle cause;
  • P(E|A) e P(E| A ) le probabilità probative, ossia le probabilità dell'evento avendo

agito la causa A (o (^) A ). Anche detta verosimiglianza.

3.1 - Calcolo probabilità e variabili casuali

Ar è la generica r-esima causa

P(Ar|E) =

P(A)P(E|A)

P(A)P(E|A)

r r^ r

r r

Si ipotizza agiscano due cause: A e A , con probabilità a priori P(A) e P( A ):

Problema diretto

Essendosi verificato l'evento E, determinare P(E), essendo note P(E|A) e P(E| A )

Problema inverso

Essendosi verificato l'evento E, determinare quale causa ha agito, essendo note le

probabilità a priori delle cause P(A) e P( A ) e le probabilità probative P(E|A) e

P(E| A )

3.1 - Calcolo probabilità e variabili casuali

Primo esempio (il problema delle urne indistinte)

Urne A: Sono 3 e contengono solo palline bianche Urne A : Sono 9 e in ciascuna le palline bianche sono la metà di quelle contenute Estraggo con ripetizione due palline. Sulla base del risultato devo stabilire qual è la probabilità che siano state estratte da A o A.

Evento: Estraggo 2 palline bianche P(A)=0,25 P( A )=0, P(E|A)=1 P(E| A )=0,50,5=0, P(E)=P(A)P(E|A) + P( A )P(E| A ) = 0,251 + 0,75*0,25 = 0,25 + 0,1875 = 0,

P(A|E) = 0,

0, = 0,57 P( A |E) = 0,

0, = 0,

3.1 - Calcolo probabilità e variabili casuali

Secondo esempio (quale fucile ha fatto centro)

Il fucile F1 spara 18 colpi al secondo, il fucile F2 10 colpi. Il livello di precisione è di

850/1000 per F1 e 900/1000 il fucile F2.

Due tiratori, ciascuno con un fucile sparano ad un bersaglio per 3 secondi. Il bersaglio

risulta colpito da un proiettile. Quale fucile ha colpito il bersaglio?

P(E|F1)=0.85 P(E|F2)=0,

A priori so che

10

18

P(F2)

P(F1)

1 , 7 10 0,

18 0,

P(F2)P(E|F2)

P(F1)P(E|F1)

P(F2|E)

P(F1| E)

×

× = =

E quindi è più probabile che abbia colpito il bersaglio F

3.1 - Calcolo probabilità e variabili casuali

v.c. discrete X x p(x) = p(X=x)

v.c. continue f(x) = p(x ≤ X ≤ x+dx)

3.1 - Calcolo probabilità e variabili casuali

  • Prova
  • Possibili risultati
  • Eventi
  • Probabilità eventi
  • Variabile o mutabile casuale, definita su eventi
  • Probabilità o densità di probabilità per i valori della v.c. o m.c.

3.1 - Calcolo probabilità e variabili casuali

V.c. Discreta V.c. Continua

x 1 , x 2 , …, xi, ..., xn x 1 -x 2 , x 2 -x 3 , …, xn-1-xn

p(xi) = p(X=xi) = pi f(x) ∆x = p(x)

f(x) = p(x ≤ X ≤ x+dx)

funzione di probabilità funz. di densità di prob.

due condizioni: due condizioni:

p(xj) ≥ 0 f(x) ≥ 0

=

k

j 1

p(x j )= 1 ∫

L l

f ( x )dx = 1

Una v.c. può essere rappresentata graficamente ponendo in ascissa i valori assunti dalla v.c. e sull'ordinata le rispettive probabilità

X 0 1 2 3 4 5 6 7 8 9 10

p(x) 0,0002 0,0004 0,0006 0, 1

F(x) 0,0002 0,0006 0,0012 0, 1

X 10 11 12 13 14 15 16 17 18 19

p(x) 0,10021 0,04008 0,00501 0,002 0,00015 5E-05 5E-05 0 0 0 F(x) 0,95265 0,99273 0,99775 0,99975 0,9999 0,99995 1 1 1 1

0,

0,

0,

0,

0,

0,

0,

(^0369121518) X

p(x)

0,

0,

0,

0,

0,

1,

1,

(^0369121518) X

F(x)

VARIABILI CASUALI DOPPIE

Siano A 1 , A 2 , ….., Au, …….., Ak k eventi necessari e incompatibili: ∪u Au = I, e Au ∩ Av = ∅ , ∀ u≠v

  • ∀ Au ⇒ xi, ∈ R cui è associata p(X =xi) = p(xi) = pi (V.C. Semplice, discreta)
  • ∀ Au ⇒ xi, yj, ∈ R cui è associata p(X= xi e Y= yj ) = p(xi ,yj) = pij (V.C. Doppia, discreta)

essendo p(xi ,yj) = pij una distribuzione di probabilità congiunte

Le coppie xi, yj, formano una v.c. doppia X,Y, ed X e Y rappresentano le due v.c. componenti la v.c. doppia.

V.C. DOPPIA DISCRETA

Se la v.c. X assume le k modalità: x 1 , x 2 , ….., xi, …….., xk

e la v.c. Y assume le h modalità: y 1 , y 2 , ….., yj, …….., yh

allora la v.c. X,Y assume le k x h modalità: x1, y 1 ,. …….., xk, yh

X/Y y 1 … yj … yh x 1 p 11 … p1j … p1h p1. … … … … … … xi pi1 … pij … pih pi. … … … … … … xk pk1 … pkj … pkh pk. p.1 … p.j … p.h 1

Sulla v.c. doppia discreta valgono le due condizioni:

  • pij ≥ 0, ∀ i,j
  • Σi Σj pij = 1

Σi Σj pij = Σi pi. = Σj p.j = 1

3.1 - Calcolo probabilità e variabili casuali

Le v.c. componenti rappresentano le funzioni di probabilità marginali della v.c. doppia:

  • Σi pij = p (^) .j (probabilità della v.c. componente Y)
  • Σj pij = p (^) i. (probabilità della v.c. componente X)

Poiché p(xi, yj) = p(X= xi ∩ Y= yj) = p(xi|yj) p(yj) = p(yj|xi) p(xi), si possono definire le funzioni di probabilità condizionate di X a Y e di Y a X:

  • h v.c. X|Y : p(X|y 1 ), p(X|y 2 ), …….. , p(X|yj) ,…….. , p(X|yh)
  • k v.c. Y|X : p(Y|x 1 ), p(Y|x 2 ), …….. , p(Y|xi) ,…….. , p(Y|xk)

Si definisce funzione di ripartizione congiunta delle due v.c. discrete X,Y,

F(x,y) = p(X≤x e Y≤y)

Considerando la coppia (xt, yv), la funzione di ripartizione congiunta indica la probabilità che X sia al massimo pari a xt e Y al massimo pari a yV

F(x, y) = Σtx^ Σvy^ p(xt,yV)

Caso di indipendenza

Nel caso di indipendenza tra le v.c. X e Y, tutte le v.c. condizionate presentano la medesima distribuzione di probabilità che è quindi pari a quella marginale.

Infatti:

V.C. Y|xi p(yj|xi) = pij|pi. = i.

i..j p

p p = p.j ∀xi

e

V.C. X|yj p(xi|yj) = pij|p.j = .j

i..j p

p p = pi. ∀yj

Come vedremo in seguito, lo studio delle medie delle v.c. condizionate consente di verificare la sussistenza della dipendenza in media; lo studio delle varianze delle v.c. condizionate consente di verificare la loro omoschedasticità.

In particolare:

  • se E(X|Yj) = E(X) ∀yj, allora la v.c. X è indipendente in media dalla v.c. Y (η^2 x|y = 0)
  • se E(Y|Xi) = E(Y) ∀xi , allora la v.c. Y è indipendente in media dalla v.c. X (η^2 y|x = 0)
  • se σ^2 x|yj = Α , ∀yj, le v.c. X|Y sono omoschedastiche (indipendenti in varianza da Y)
  • se σ^2 y|xi = B, ∀xi, le v.c. Y|X sono omoschedastiche (indipendenti in varianza da X)

3.1 - Calcolo probabilità e variabili casuali

Valori caratteristici delle distribuzioni di probabilità

Valore atteso

E: expectation, E(X) μμμμ X

E(X) = ΣΣΣΣ i xi p(xi) = ΣΣΣΣ x x p(x) v.c. discreta X, i=1, 2, …, n

E(X) = (^) ∫

+∞ −∞

x f(x) dx v.c. continua X, - ∞∞∞∞ < X < + ∞∞∞∞

Proprietà del valore atteso

Sia c una costante e X e Y due v.c.

  • E(c) = c
  • E(cX) = c E(X)
  • E(X+Y) = E(X) + E(Y)

da cui E(X-μ) = E(X) - E(μ) = μ - μ = 0, e dunque la v.c. scarto da μ ha valore atteso nullo.

3.1 - Calcolo probabilità e variabili casuali

Altre misure di posizione di una v.c. casuale: mediana, quantili e moda

La mediana di una v.c. casuale è ogni valore xm (o Me, o x0,5) tale che:

p(X≤xm) ≤ 0,5 e p(X>xm) < 0,

La mediana bipartisce l'intervallo dei valori ammissibili di X in due intervalli che presentano

la medesima probabilità o densità di probabilità

La mediana è uno dei quantili di una v.c. casuale. Si definisce q-esimo quantile ξq (o

quantile di ordine q xq) ogni valore tale che:

p(X≤ξq) ≤ q e p(X>ξq) < 1 - q, con 0 < q < 1

Il quantile ξq bipartisce l'intervallo dei valori ammissibili di X in due intervalli che

presentano rispettivamente probabilità o densità di probabilità pari a q e 1-q.

Per q=0,5 si ha la mediana ξ0,5; per q = 0,25 il primo quartile ξ0,25, per q=1/3 il primo terzile

ξ1/3, per q=0,01 il primo centile ξ0,01, ecc.

Data v.c. discreta si definisce moda il valore xi di X cui corrisponde la massima probabilità.

Data una v.c. discreta o continua raggruppata in classi si definisce classe modale quella

cui corrisponde la massima densità di frequenza f(x) = p(x)/∆x.

3.1 - Calcolo probabilità e variabili casuali

Misure di dispersione

Data una v.c. casuale X con valore atteso E(X)=μ, si definisce varianza di X [indicata con σ 2 X ,^ σ

2 (X) o Var(X)], il valore atteso della funzione g(X)=(X-μ) 2 :

σσ σσ^2 (X) = E(X- μμμμ )^2

  • σσσσ 2 (X) = ΣΣΣΣ i (xi - μμμμ ) 2 p(xi) = ΣΣΣΣ x (x- μμμμ ) 2 p(x) v.c. discreta X, i=1, 2, …, n
  • σσσσ^2 (X) = (^) ∫

+∞ −∞ (x- μμμμ )^2 f(x) dx v.c. continua X, - ∞∞∞∞ < X < + ∞∞∞∞

La varianza è la differenza tra il valore atteso del quadrato di X e il quadrato del valore atteso di X. Infatti:

σσ σσ 2 (X) = E(X-μ) 2 = E(X 2

  • μ 2
  • 2μX) = E(X 2 ) + μ 2 - 2μE(X) = E(X 2 ) - μμμμ 2

Come noto, la radice quadrata positiva della varianza è lo scarto quadratico medio (σX) e il numeratore della varianza è la devianza della v.c. casuale [Dev(X)].

Teorema 1

Sia Y una v.c. trasformata lineare di X, Y=aX+b, essendo a e b due costanti, allora:

Var(Y) = Var (aX + b) = a^2 Var(X),

Teorema 2

Sia Y =

σ

X - μ

una v.c. standardizzata di Y, allora:

E(Y) = E 

σ

X - μ

= 0 e Var(Y) = Var 

σ

X - μ

Altre misure di dispersione

Campo di variazione o range : xmax - xmin , rappresenta l'ampiezza dell'intervallo nel quale sono compresi tutti i valori assunti dalla variabile

Differenza interquartile : ξ0,75 - ξ0,25 , rappresenta l'ampiezza dell'intervallo che comprende il 50% delle osservazioni centrali

Misure della forma di una v.c.

Misure di asimmetria

Due misure poco affidabili: μ - xm e (ξ0,75 - ξ0,5) - (ξ0,5 - ξ0,25).

La misura più tradizionale: l'indice di asimmetria β 1 di Pearson

ββββ 1 = E 

3 X -

. Se β 1 > 0 c'è asimmetria positiva, se β 1 < 0 asimmetria negativa.