Post on 07-Aug-2018
8/20/2019 Dispensa Di Statisitica Prof Franceschini
1/131
Università di Modena e Reggio Emilia
Facoltà di Ingegneria - sede di Modena
Lezioni
di
STATISTICA MATEMATICA
Docente: Prof. Valter Franceschini
per i Corsi di Laurea in Ingegneria Meccanica e dei Materiali
- a.a. 2008/09 -
8/20/2019 Dispensa Di Statisitica Prof Franceschini
2/131
INDICE
1 CALCOLO DELLE PROBABILITÀ 1
1.1 Calcolo combinatorio 1
1.2 La probabilità matematica 5 Spazi di probabilità finiti 8Spazi finiti equiprobabili 9
1.3 Probabilit̀a condizionata 14 Eventi indipendenti 16Formula di Bayes 19
1.4 Variabili aleatorie 23 Variabili aleatorie discrete 25Variabili aleatorie continue 26
1.5 Media e varianza 31
1.6 Variabili aleatorie bidimensionali 37
1.7 Distribuzioni binomiale, di Poisson e di Gauss 46 Distribuzione binomiale 46Distribuzione di Poisson 49Distribuzione di Gauss 51
1.8 Approssimazione normale 55
1.9 Altre distribuzioni 61Distribuzione esponenziale 61Distribuzione ipergeometrica 63Distribuzione geometrica 65
2 STATISTICA DESCRITTIVA 66
2.1 Introduzione 66
2.2 Organizzazione e rappresentazione dei dati 66
2.3 Grandezze che sintetizzano i dati 71
3 STATISTICA MATEMATICA 81
3.1 Popolazioni e campioni 81
3.2 Stimatori 82
3.3 Distribuzioni chi-quadro e di Student 85
3.4 Intervalli di fiducia (o di confidenza) 87
3.5 Stima della media di una popolazione normale 87 3.6 Stima della varianza di una popolazione normale 91
3.7 Stima della differenza delle medie di due popolazioni normali 94
3.8 Stima di una proporzione 99
3.9 Basi logiche dei test 102
3.10 Formulazione di un test di ipotesi 104
3.11 Test di significatività 107
3.12 Test riguardanti la media di una popolazione normale 109
3.13 Test riguardanti la differenza delle medie di due popolazioni normali 117
3.14 Curve caratteristiche operative dei test 120
Tavole delle leggi N (0, 1), χ2n e T n 125
Bibliografia 128
8/20/2019 Dispensa Di Statisitica Prof Franceschini
3/131
CAPITOLO 1: CALCOLO DELLE PROBABILITÀ
1.1 CALCOLO COMBINATORIO
DISPOSIZIONI
Definizione Una disposizione semplice di n oggetti dati presi k alla volta è unak¡upla ordinata di k oggetti distinti scelti tra gli n (ovviamente k · n) .Esempio 1.1.1 Le disposizioni semplici dei 3 oggetti dati a, b, c presi a coppie (per cuik = 2, n = 3), sono
(a, b), (b, c), (c, a), (b, a), (c, b), (a, c) .
Proposizione Il numero di disposizioni semplici di n oggetti presi k alla volta, che indichiamo con D(k; n), è il prodotto dei k numeri naturali decrescenti a partire da n:
D(k; n) = n(n ¡ 1) ¢ ¢ ¢ (n ¡ k + 1) = n!(n ¡ k)! .
Infatti, se riempio k caselle in ordine, nella prima ho n possibilità di scelta, nellaseconda (n ¡ 1) possibilità, ..., nella k¡esima (n ¡ k + 1).
Definizione Una disposizione con ripetizione di n oggetti dati presi k alla volta
è una k¡upla ordinata i cui elementi, non necessariamente distinti, sono scelti fragli n.
Osservazione: differentemente dal caso delle disposizioni semplici, k può anche esseremaggiore di n.
Esempio 1.1.2 Le diposizioni con ripetizione dei tre oggetti a, b, c a due a due (per cuin = 3, k = 2) sono
(a, a), (a, b), (b, a), (b, b), (b, c), (c, b), (a, c), (c, a), (c, c) .
Proposizione Il numero di disposizioni con ripetizione di n oggetti presi k allavolta è
DR(k; n) = nk .
Infatti, se riempio k caselle in ordine, nella prima casella ho n possibilità di scelta,nella seconda ho ancora n possibilità, e cos̀ı per tutte le altre caselle. Ottengo quindiil numero di oggetti elevato al numero di caselle.
Esempio 1.1.3 Il numero delle possibile schedine del totocalcio è 313; questo è infatti ilnumero di disposizioni con ripetizione dei 3 simboli 1, 2, x, in 13 caselle ordinate.
Osservazione: Come si deduce da quanto appena visto, in questo contesto l’aggettivo
1
8/20/2019 Dispensa Di Statisitica Prof Franceschini
4/131
”semplice” significa ”senza ripetizioni”.
2
8/20/2019 Dispensa Di Statisitica Prof Franceschini
5/131
PERMUTAZIONI
Definizione Una permutazione di n oggetti dati è una n¡upla ordinata i cui
elementi sono tutti gli n oggetti .Detto altrimenti, una permutazione è una disposizione semplice degli n oggetti datiquando sono presi tutti n (si tratta del caso k = n). Di conseguenza il numero P (n)delle possibili permutazioni di n oggetti vale
P (n) = n(n ¡ 1) ¢ ¢ ¢ 3 ¢ 2 ¢ 1 ´ n!
Il simbolo n! si legge “n fattoriale” e designa il prodotto dei primi n numeri naturali.Per convenzione si pone 0! = 1. Si è dunque trovato che vale la seguente
Proposizione Il numero P (n) delle permutazioni di n oggetti è uguale a n! .
Esempio 1.1.4 Le permutazioni di 5 clienti di banca (che rappresentano i possibili modi dimetterli in ordine di attesa a uno sportello) sono 5!, ossia = 5 ¢ 4 ¢ 3 ¢ 2 ¢ 1 = 120.
COMBINAZIONI
Definizione Una combinazione semplice di n oggetti dati presi k alla volta,k · n, è un sottoinsieme non ordinato di k oggetti distinti scelti tra gli n.Esempio 1.1.5 Le combinazioni dei 3 oggetti a,b,c, presi 2 alla volta sono
fa, bg, fb, cg, fa, cg .Si noti che fa, bg ´ fb, ag. Per gli insiemi astratti (per i quali si usa la parentesi graffa)non vige alcuna struttura d’ordine.
Proposizione Il numero di combinazioni semplici di n oggetti presi k alla volta,che indichiamo con C (k; n), vale
C (k; n) =
n
k
.
Ricordato che n
k
:=
n(n ¡ 1)...(n ¡ k + 1)k!
= n!
k!(n ¡ k)! ,
dimostriamo la proposizione enunciata. Per ciascuna combinazione in cui sono presik oggetti alla volta, esistono P (k) modi di metterli in ordine. Di conseguenza, frail numero D(k; n) delle disposizioni e il numero C (k; n) delle combinazioni vale laseguente relazione
D(k; n) = C (k; n) ¢ P (k) ,da cui
C (k; n) = D(k; n)
P (k) .
Da questa segue immediatamente la tesi della proposizione.
3
8/20/2019 Dispensa Di Statisitica Prof Franceschini
6/131
Esempio 1.1.6 Il numero di comitati di 4 persone che si possono formare da un gruppo di 9è
C (4;9) = 94 = 9!/[4!(9 ¡ 4)!] = 9 ¢ 8 ¢ 7 ¢ 64 ¢ 3 ¢ 2 ¢ 1 = 126 .Definizione Una combinazione con ripetizione di n oggetti dati presi k allavolta è un insieme non ordinato di k oggetti, non necessariamente distinti, scelti tra gli n.
Osservazione: come per le disposizioni con ripetizione, e differentemente dal casodelle combinazioni semplici, k può anche essere maggiore di n.
Esempio 1.1.7
Le combinazioni con ripetizione dei 3 oggetti a,b,c, presi a coppie sono
fa, ag, fa, bg, fa, cg, fb, bg, fb, cg, fc, cg .Analogamente, le combinazioni con ripetizione dei 2 oggetti a e b presi a terne sono
fa,a,ag, fa,a,bg, fa,b,bg, fb,b,bg .
Proposizione Il numero di combinazioni con ripetizione di n oggetti presi k allavolta è
C R(k; n) =
n + k ¡ 1
k
.
Dimostrazione
Si tratta di contare il numero di soluzioni (a1, a2, . . . , ak), con gli ai numeri interi,soddisfacenti la relazione
1 · a1 · a2 · ¢ ¢ ¢ · ak · n .Questa relazione equivale alla seguente
0 < a1 < a2 + 1 < a3 + 2 < ¢ ¢ ¢ < ak + k ¡ 1 < n + k ,che a sua volta equivale a
0 < b1 < b2 < ¢ ¢ ¢ < bk < n + k ,con i bi interi. Ne consegue che il numero cercato è uguale al numero di possibiliscelte di k oggetti distinti presi dall’insieme f1, 2, . . . , n + k ¡ 1g, e quindi è uguale aC (k; n + k ¡ 1).
Esempio 1.1.8 Applichiamo la formula che ci dà C R(k; n) per verificare che il numero dicombinazioni con ripetizione nei due casi visti nell’esempio 1.1.7 è rispettivamente 6 e 4.
Dobbiamo ovviamente calcolare C R(2, 3) e C R(3, 2). Si ha
C R(2, 3) =
3 + 2 ¡ 1
2
=
4
2
= 6 ;
C R(3, 2) =
2 + 3 ¡ 1
3
=
4
3
= 4 .
4
8/20/2019 Dispensa Di Statisitica Prof Franceschini
7/131
Esercizio 1.1.1 Si consideri un gruppo costituito da 20 persone. Ci si pone il seguente problema: qual è la probabilità che queste persone compiano gli anni in giorni tutti diversi?
Com’è facilmente intuibile, la probabilità che ci interessa è data dal rapporto fra il numeroN dist dei casi possibili di 20 compleanni tutti distinti e il numero totale N tot dei casi pos-sibili di 20 compleanni anche con coincidenze. Volendo formalizzare il problema in termini
matematici, indichiamo con (c1, c2,...,c20) la 20¡upla definita dai 20 compleanni, con cigiorno di compleanno della i-esima persona. Allora N dist corrisponde al numero delle pos-sibili 20¡uple di ci tutti distinti, con 1 · ci · 365, il che implica N dist = D(20; 365).D’altra parte N tot corrisponde al numero di tutte le possibili 20¡uple con 1 · ci · 365,ossia N tot = D
R(20; 365). Indicando con P la probabilità cercata si ha
P = N distN tot
= D(20; 365)
DR(20, 365) =
365 ¢ 364 ¢ ¢ ¢ ¢ ¢ 346(365)20
=365
365
364365
¢ ¢ ¢
346365
¼ 59% .
Proposizione Vale la seguente formula, detta formula binomiale di Newton:
(a + b)n =
n0
an +
n1
an−1b + ... +
n
n ¡ 1
abn−1 +
nn
bn
ovvero, in notazione compatta,
(a + b)n =
nk=0
nk
an−kbk.
Dimostrazione(a + b)n = (a + b)(a + b)...(a + b) [n volte]
è una lunga somma che contiene più volte l’addendo generico an−kbk. Fissiamo k,con k · n. Quante volte appare tale addendo? Tante quante le possibili scelte dik parentesi tra le n date, prendendo da ciascuna il fattore b (ottenendo cos̀ı bk), econseguentemente prendendo da ciascuna delle rimanenti n ¡ k parentesi il fattore a(ottenendo cosı̀ an−k). In altre parole: il fattore an−kbk compare tante volte quante
sono le combinazioni semplici di k oggetti tra gli n dati. Cioè
n
k
volte. Quindi tale
addendo va moltiplicato per
n
k
e la somma va fatta rispetto a k come enunciato.
Esercizio 1.1.2 Provare la proprietà dei coefficienti binomiali n ¡ 1k ¡ 1
+n ¡ 1
k
=n
k
.
Procediamo con calcolo diretto:n ¡ 1k ¡ 1
+
n ¡ 1
k
=
(n ¡ 1)!(k ¡ 1)!(n ¡ k)! +
(n ¡ 1)!k! (n ¡ 1 ¡ k)! =
= (n ¡ 1)! k + (n ¡ 1)!(n ¡ k)
k! (n ¡ k)! = (n ¡ 1)!(k + n ¡ k)
k! (n ¡ k)! =
n
k
.
Osserviamo che è grazie a questa relazione che si costruisce il famoso “triangolo di Tartaglia”.
5
8/20/2019 Dispensa Di Statisitica Prof Franceschini
8/131
1.2 LA PROBABILITÀ MATEMATICA
Definizione Si chiama spazio campionario l’insieme S di tutti i possibili esiti
di un dato esperimento. Un evento è un insieme di esiti, cioè un sottinsieme dello spazio campionario S. Si dice poi classe di eventi, e la denoteremo con Ω,ogni insieme non vuoto di eventi che risulti essere chiuso rispetto alle operazioni insiemistiche elementari, vale a dire:
i) dati due eventi A, B 2 Ω, allora anche A [ B 2 Ω (A [ B è l’evento che siverifica se si verifica almeno uno fra gli eventi A e B );
ii) data una successione numerabile di eventi Ai 2 Ω, allora anche la loro unione è un evento, cioè
∞i=1 Ai 2 Ω;
iii) dato un evento A 2 Ω, allora anche il suo complementare AC ´ S ¡ A 2 Ω(AC è l’evento che si verifica quando A non si verifica).
Dai tre assiomi che caratterizzano una classe di eventi Ω seguono queste altre pro-prietà:
— Dati due eventi A e B, anche A \ B è un evento ; infatti:A \ B = (AC [ BC )C =) A \ B 2 Ω ;
— L’insieme vuoto ; e lo spazio S sono eventi ; infatti, preso A 2 Ω, si haA \ AC = ; =) ; 2 Ω , A [ AC = S =) S 2 Ω .
L’evento ; è detto evento impossibile e S è detto evento certo.
Definizione Due eventi A e B sono detti incompatibili se sono disgiunti, cioè se A \ B = ;. A parole: due eventi sono incompatibili se non si possono mai verificaresimultaneamente.
Esempio 1.2.1 Si consideri il seguente esperimento: si getta un dado e si guarda il risultatodella prova, vale a dire il numero che si presenta. Lo spazio campionario consiste nei sei
numeri possibili:
S = f1, 2, 3, 4, 5, 6g .Consideriamo i seguenti eventi: A:“il risultato è un numero pari”; B:“il risultato è un
numero dispari”; C :“il risultato è un numero primo”. In termini si sottinsiemi di S :A = f2, 4, 6g , B = f1, 3, 5g , C = f2, 3, 5g .
Si ha quindi, ad esempio:
AC = f1, 3, 5g = B ;C C = f1, 4, 6g: è l’evento “il risultato non è un numero primo”;B \ C = f3, 5g: è l’evento “il risultato è un numero dispari e primo”;A [ C = f2, 3, 4, 5, 6g: è l’evento “il risultato è un numero pari o primo”.
Si noti che gli eventi A e B , essendo A \ B = ;, sono incompatibili.
6
8/20/2019 Dispensa Di Statisitica Prof Franceschini
9/131
Osservazione: Come si evince dall’esempio, gli eventi sono definiti mediante proposizionifatte nel linguaggio comune, e poi identificati con sottinsiemi di S . Sulla base di questaconsiderazione risulta molto più appropriato parlare di eventi incompatibili piuttosto che di
eventi disgiunti, e di sottinsiemi disgiunti piuttosto che di sottinsiemi incompatibili. Accadeperò spesso che i due aggettivi siano usati indifferentemente.
Definizione Sia S uno spazio campionario ed Ω una classe di eventi in S. Sia poi P una funzione definita su Ω a valori in [0, 1]:
P : Ω ¡! [0, 1] .Allora (S, Ω, P ) è detto spazio di probabilità e P (A) è detta probabilità dell’e-vento A 2 Ω se valgono i seguenti tre assiomi:
1) P (S) = 1 ;
2) se A e B sono due eventi incompatibili, alloraP (A [ B) = P (A) + P (B) ;
3) se fAn, n 2 N g è una successione numerabile di eventi incompatibili, si ha
P [∞n=1An
=
∞n=1
P (An) .
Gli assiomi 2) e 3) esprimono il fatto che le probabilit à di eventi incompatibili sisommano. In particolare l’assioma 3), che ovviamente ha significato solo nel caso incui Ω è un insieme infinito, si esprime sinteticamente dicendo che P è numerabilmente
additiva.
Teorema P (;) = 0 . (La probabilità dell’evento impossibile è nulla)Dimostrazione
Sia A un qualunque evento di Ω. Poiché anche ; 2 Ω, segue che A [ ; 2 Ω. Inoltre,A ed ; sono eventi incompatibili essendo A \ ; = ;. In virtù dell’assioma 2) si haquindi
P (A) = P (A [ ;) = P (A) + P (;) =) P (;) = 0 .
Teorema (regola di complementazione) Sia A 2 Ω un evento ed AC il suo comple-mentare. Allora si ha
P (AC ) = 1 ¡ P (A) .Dimostrazione
Essendo A \ AC = ;, A ed AC sono eventi incompatibili. Di conseguenza, applicandol’assioma 2) ad S, si ottiene
P (S) = P (A [ AC ) = P (A) + P (AC ) = 1 ,da cui consegue banalmente la tesi.
7
8/20/2019 Dispensa Di Statisitica Prof Franceschini
10/131
Teorema Se A e B sono due eventi tali che A
µB, allora
P (A) · P (B) .Dimostrazione
Essendo A µ B si può decomporre B neglieventi incompatibili A e B ¡ A = B \ AC . Sipuò quindi scrivere
P (B) = P (A [ (B ¡ A)) = P (A) + P (B ¡ A) ¸ P (A) ,esssendo P (B ¡ A) ¸ 0.
Teorema Se A e B sono due eventi qualun-
que, allora
P (A ¡ B) = P (A) ¡ P (A \ B) .Dimostrazione
L’evento A può essere decomposto negli eventiincompatibili A ¡ B e A \ B, per cui, in virtùdell’assioma 2), si ha
P (A) = P
(A ¡ B) [ (A \ B) = P (A ¡ B) + P (A \ B) .La tesi segue immediatamente.
Teorema (regola di addizione per eventi arbi-trari) Se A, B sono eventi arbitrari di uno spazio di probabilità, allora
P (A [ B) = P (A) + P (B) ¡ P (A \ B) .Dimostrazione
Scriviamo A [ B come unione dei due eventiincompatibili A ¡ B e B. Applicando quindil’assioma 2) e il teorema precedente si ottienela tesi.
P (A [ B) = P (A ¡ B) [ B = P (A ¡ B) + P (B) = P (A) + P (B) ¡ P (A \ B) .
8
8/20/2019 Dispensa Di Statisitica Prof Franceschini
11/131
Spazi di probabilità finiti
Sia S uno spazio campionario finito:
S = fa1, a2, . . . , aN ged Ω l’insieme di tutti i sottinsiemi di S (inclusi S e ;). Si ottiene uno spazio diprobabilità finito assegnando a ciascun elemento ai di S un numero reale pi, dettoprobabilità di ai e indicato come P (faig), tale che
i) pi ¸ 0 per ogni i = 1, 2, . . . , N ;ii) la somma delle singole probabilità è uguale a 1, ossia
N i=1 pi = 1 .
La probabilità P (A) di un qualsiasi evento A µ S viene quindi definita come la sommadelle probabilità degli eventi elementari faig contenuti in A:
P (A) = P i:ai∈A
faig = i:ai∈A
P faig = i:ai∈A
pi .
Dimostriamo che la funzione P : Ω ! [0, 1] è una funzione di probabilità facendovedere che valgono gli assiomi 1) e 2). Per quanto riguarda la validità dell’assioma1), si ha
P (S) = P i:ai∈S
faig
= P N i=1
faig
=N i=1
P faig = N
i=1
pi = 1 .
D’altra parte, se A e B sono eventi incompatibili, abbiamo
P (A [ B) = P i:ai∈A∪B
faig
=
i:ai∈A∪BP faig =
=i:ai∈A
pi +
i:ai∈B pi = P (A) + P (B) ,
per cui vale anche l’assioma 2). Valgono dunque tutti gli assiomi richiesti perché P sia una probabilità (essendo lo spazio finito, l’assioma 3) non ha significato).
Dal punto di vista pratico ci sono diversi modi di assegnare le probabilità pi agli
eventi elementari faig. Uno dei possibili modi è il seguente: se ripetiamo lo stessoesperimento n volte e chiamiamo si il numero di volte che si verifica faig, si osservache il rapporto
sin
,
detto frequenza relativa, a lungo andare tende a stabilizzarsi, cioè tende ad un li-mite pi (compreso, ovviamente, tra 0 ed 1). Questo valore limite pi, cosı̀ calcolatoempiricamente, viene assunto come la probabilità dell’evento elementare faig.
9
8/20/2019 Dispensa Di Statisitica Prof Franceschini
12/131
Spazi finiti equiprobabili
Definizione Si dice spazio equiprobabile (o uniforme) uno spazio di probabilità
finito dove ciascun elemento dello spazio campionario S (o, equivalentemente,ciascun evento elementare) ha la stessa probabilit̀a.
Dalla definizione e dagli assiomi della probabilità segue immediatamente che, se lospazio campionario S consta di N elementi, la probabilità di ciascun elemento di S
vale p = 1
N . Avremo inoltre che, dato un qualunque evento A, la sua probabilità sarà
da
P (A) = numero degli elementi di A
N =
jAjN
.
A parole: in uno spazio finito equiprobabile, la probabilità di un evento vale il numero dei casi favorevoli diviso il numero dei casi possibili .
Nota bene: jAj denota la cardinalità di A, cioè il numero degli eventi elementari checostituiscono A. Questa notazione sarà utizzata anche in seguito.
Esempio 1.2.2 Consideriamo un dado non truccato: avremo
S = f1, 2, 3, 4, 5, 6g, N = 6 , P (1) = P (2) = ¢ ¢ ¢ = P (6) = 16 .Vogliamo calcolare, ad esempio, la probabilità degli eventi
A : esce un numero pari, B : esce un numero minore di 3.
Si avrà
P (A) = jf2, 4, 6gj
6
= 1
2
, P (B) = jf1, 2gj
6
= 1
3
.
Esercizio 1.2.1 Si scelga a caso una carta da un mazzo ben mescolato di 52 carte da ramino.Ci si chiede la probabilità di ottenere: 1) un asso; 2) una carta di fiori; 3) una figura; 4) una
figura non di cuori.
Lo spazio campionario S è ovviamente l’insieme delle 52 carte, per cui N =52. Siano poiA1, A2, A3 e A4 gli eventi di cui si chiede, nell’ordine, la probabilità. Essendo lo spazioequiprobabile (la carta è scelta a caso!), avremo:
P (A1) = jA1j
N
= numero degli assi
N
= 4
52
= 1
13
;
P (A2) = jA2j
N =
numero delle carte di fiori
N =
13
52 =
1
4 ;
P (A3) = jA3j
N =
numero delle figure
N =
12
52 =
3
13 ;
P (A4) = jA4j
N =
numero delle figure non di cuori
N =
9
52 .
10
8/20/2019 Dispensa Di Statisitica Prof Franceschini
13/131
Esercizio 1.2.2 Si effettuano cinque lanci successivi di una moneta non truccata. Ci si chiede: qual è la probabilità che in cinque lanci esca “testa” almeno una volta?
Introduciamo l’appropriato spazio di probabilità:
S =
(a1, a2, a3, a4, a5), con ai = T o ai = C, i = 1,..., 5
,
dove ai indica il risultato del lancio i-esimo, e T e C stanno ovviamente per “testa” e “croce”.Siccome il numero delle possibili cinquine che costituiscono S è 25, abbiamo N = 32, e quindi
p = 132 .
L’evento che ci interessa è
A = “esce almeno una testa” ,
che è il complementare dell’evento elementare
f(C,C,C,C,C )
g, la cui probabilità è ovvia-
mente p. Si ha quindi
P (A) = 1 ¡ P (AC ) = 1 ¡ 132
= 31
32 .
Esercizio 1.2.3 Problema: qual è la probabilità che fra M persone ce ne siano almeno due con lo stesso compleanno?
Il problema, nella sostanza, è già stato affrontato nell’esercizio 1.1.1. Assunto che tutti gli
anni siano di 365 giorni (considerare anche gli anni bisestili complicherebbe considerevol-
mente il problema), e che tutti i giorni siano equiprobabili, lo spazio di probabilità è
S = (a1, a2, . . . , aM ), ai 2 [1, 2, . . . , 365] .Siccome il numero degli eventi elementari è N = DR(M ;365) = 365M , ogni evento ele-
mentare ha probabilità p = 1
365M .
Indicato con AM l’evento “gli M compleanni avvengono tutti in giorni diversi”, l’evento dicui interessa la probabilità è il complementare di AM , ciòe A
C M . Ricordando quanto visto
nell’esercizio 1.1.1, generalizzandone il risultato si ottiene
P (AM ) = jAM j
jS j = D(M ; 365)
DR(M ; 365) =
365 ¢ 364 ¢ ¢ ¢ ¢ ¢ (365 ¡ M + 1)365M
,
e quindi, in virtù della regola di complementazione,
P (AC M ) = 1 ¡M i=1(366 ¡ i)
365M .
Facendo il calcolo, si ottiene, ad esempio, P (AC 10) ¼ 12%, P (AC 20) ¼ 41%, P (AC 30) ¼ 71%,P (AC 50) ¼ 97%.
11
8/20/2019 Dispensa Di Statisitica Prof Franceschini
14/131
Esercizio 1.2.4 Carlo e Giorgio sono due amici che ogni giorno scommettono sul risultato del lancio di un dado. Carlo punta sempre su un risultato dispari, Giorgio su un risultato
pari. Giorgio crede che i numeri riportati sulle facce del dado (ovviamente gli interi da 1 a 6)siano equiprobabili. In realtà non è cos̀ı in quanto Carlo, di nascosto, ha “truccato” il dado
facendo in modo che il numero 1 abbia probabilità 15
, lasciando però che gli altri numeri
siano equiprobabili. Quali sono le probabilit̀a di vincere di Carlo e Giorgio rispettivamente?
Lo spazio campionario è ovviamente
S = f1, 2, 3, 4, 5, 6g .Sia pi = P
fig. Siccome sappiamo che p1 = 15 e che p2= p3= p4= p5= p6, dovendo essere6i=1 pi = 1, si ricava pi =
425 , per i = 2, . . . , 6. L’evento per cui vince Carlo è
A = “il risultato è dispari” = f1, 3, 5g .Ovviamente l’evento per cui vince Giorgio è AC . Si ha dunque
P (A) = P f1, 3, 5g = P f1g + P f3g + P f5g = 15 + 425 + 425 = 1325 ,e quindi
P (AC ) = 1 ¡ P (A) = 1225 .In fin dei conti, Carlo è stato sleale, ma poteva esserlo molto di più.
Esercizio 1.2.5 Le probabilit̀a che tre giocatori G1, G2 e G3 colpiscano il bersaglio sono rispettivamente p1 =
16 , p2 =
14 , p3 =
13 . Ciascuno spara una volta al bersaglio. Trovare la
probabilità degli eventi:
a) A: “un solo giocatore colpisce il bersaglio”;b) B: “uno o due giocatori colpiscono il bersaglio”.
Sia S ´ (s1, s2, s3), con si = Y oppure si = N a seconda che il giocatore Gi colpiscaoppure no il bersaglio. E quindi
S ´ (Y,Y,Y), (Y,Y,N), (Y,N,Y), (Y,N,N), (N,Y,Y), (N,Y,N), (N,N,Y), (N,N,N) .Sappiamo che P (fsi = Yg) = pi e di conseguenza P (fsi = Ng) = 1 ¡ pi. Essendo ilrisultato di ciascun sparo indipendente dagli altri (il concetto di “eventi indipendenti” sar à
definito in maniera rigorosa più avanti), si ha
P (s1, s2, s3)= P (fs1g) ¢ P (fs2g) ¢ P (fs3g) .Avremo perciòP (A) = P
(Y,N,N)
+ P
(N,Y,N)
+ P
(N,N,Y)
=
= 1
6 ¢ 3
4 ¢ 2
3 +
5
6 ¢ 1
4 ¢ 2
3 +
5
6 ¢ 3
4 ¢ 1
3 =
31
72
P (B) = P f(Y , Y , Y ), (N , N , N )gC = 1 ¡ P (Y , Y , Y ) + P (N , N , N ) =
= 1 ¡1
6 ¢ 1
4 ¢ 1
3 +
5
6 ¢ 3
4 ¢ 2
3
=
41
72 .
12
8/20/2019 Dispensa Di Statisitica Prof Franceschini
15/131
Esercizio 1.2.6 Un dado “equo” a 4 facce riportanti i numeri 1, 2, 3 e 4 è lanciato tre volte.Si chiede la probabilità di ottenere: i) almeno un tre; ii) nessun uno e nessun due.
Lo spazio campionario èS = f(a1, a2, a3) , ai 2 [1, 2, 3, 4] , i = 1, 2, 3 .g
Sia A l’evento “si è ottenuto almeno un 3”. Indicando con Qk l’evento “il risultato delk-esimo lancio è 3”, si ha AC = QC 1 \ QC 2 \ QC 3 . Essendo poi gli eventi Q1, Q2 e Q3indipendenti uno dall’altro (in quanto il risultato di ciascuno non dipende da quello degli
altri due), anche gli eventi complementari QC k sono indipendenti. Tenendo conto di ciò e delfatto che P (Q1) = P (Q2) = P (Q3) =
14 , per cui P (Q
C 1 ) = P (Q
C 2 ) = P (Q
C 3 ) =
34 , si ha
P (A) = 1 ¡ P (AC ) = 1 ¡ P QC 1 \ QC 2 \ QC 3 = 1 ¡ P (QC 1 ) ¢ P (QC 2 ) ¢ P (QC 3 ) == 1 ¡
34
3=
37
64 ¼ 57.8% .
Sia ora B l’evento “non si è ottenuto nessun uno e nessun due”. Indicando con Rk l’evento“il risultato del k-esimo lancio è 3 o 4”, si ha B = R1 \ R2 \ R3. Anche in questo caso itre eventi Rk sono indipendenti; inoltre P (R1) = P (R2) = P (R3) =
12 . Ne consegue
P (B) = P (R1 \ R2 \ R3) = P (R1) ¢ P (R2) ¢ P (R3) =1
2
3=
1
8 = 12.5% .
Esercizio 1.2.7 Un’urna contiene 20 palline numerate progressivamente. a) Vengono estratte in blocco 4 palline: qual è la probabilità che venga estratta la pallina numero 1? b) Ven-
gono estratte una dopo l’altra 4 palline ogni volta con reimmissione: qual è la probabilità
che venga estratta la pallina numero 1?
Sia A l’evento ”fra le 4 palline estratte c’è anche la numero 1”. L’evento complementare AC
è dunque ”fra le 4 palline estratte non c’è la numero 1”. Calcoleremo P (A) come 1¡P (AC ),essendo P (AC ) molto semplice.
a) Assumiamo come spazio S l’insieme di tutte le possibili disposizioni ( p1, p2, p3, p4)dei numeri da 1 a 20 presi quattro alla volta (senza ripetizioni). Essendo tali quaterne
equiprobabili, avremo
P (A) = 1 ¡ jAC j
jS j = 1 ¡ D(4; 19)
D(4; 20) = 1 ¡ 19 ¢ 18 ¢ 17 ¢ 16
20 ¢ 19 ¢ 18 ¢ 17 = 1 ¡ 16
20 =
1
5 .
Allo stesso risultato si poteva pervenire anche per altra via. Come spazio S, infatti, si puòassumere l’insieme di tutte le possibili combinazioni di 4 numeri interi (distinti) presi tra 1
e 20. Anche le combinazioni sono equiprobabili, per cui si ha
P (A) = 1 ¡ jAC j
jS j = 1 ¡ C (4; 19)
C (4; 20) = 1 ¡
194
204
= 1 ¡ 19!15! 4!
16!4!
20! = 1 ¡ 4
5 =
1
5 .
b) In questo caso, affinchè lo spazio campionario sia equiprobabile , bisogna assumere Scostituito da tutte le possibili disposizioni con ripetizione di 4 interi presi tra 1 e 20. Si ha
dunque
P (A) = 1 ¡ DR(4; 19)
DR(4; 20) = 1 ¡ 19
4
204 = 1 ¡
1920
4¼ 1 ¡ 0.815 = 18.5% .
13
8/20/2019 Dispensa Di Statisitica Prof Franceschini
16/131
Esercizio 1.2.8 Da un mazzo ben mescolato di 52 carte da ramino se ne estraggono 5 a caso.Si chiede la probabilità di: 1) un poker (PO); 2) un full (FU); 3) una doppia coppia (CC);
4) una coppia (C).Lo spazio campionario S è costituito da tutte le possibili cinquine (non ordinate) di carteottenute combinando senza ripetizioni le 52 carte di un mazzo, ossia
S = f(c1, c2, c3, c4, c5) , ci 6= cjg , N =
525
= 2·598·960 .
La probabilità di ciascun evento si ottiene calcolando il numero degli eventi favorevoli e
dividendolo per N . Volendo calcolare la probabilità di un poker, contiamo quante sono lepossibili cinquine con quattro carte “uguali”. Scelte 4 carte “uguali”, e ci sono 13 possibili
scelte, la quinta carta può essere una qualunque fra le rimanenti 48. Avremo dunque
P (P O) = 13¢48
N ¼ 0.024% .
Volendo poi un full, cioè una cinquina del tipo aaabb, osserviamo che ogni tris aaa puòessere ottenuto con 13 diverse carte “a” e che per ciascun “a” se ne possono poi ottenere
43
= 4; per quanto riguarda poi la coppia bb, una volta scelto il tris, la si può ottenere con
12 diverse carte “b”, e per ciascun “b” ci sono
42
= 6 possibilità. Si ha quindi
P (F U ) = 13¢4
3
¢12¢42
N
= 13¢4¢12¢6
N ¼ 0.14% .
La domanda 3) concerne le doppie coppie, cioè le cinquine del tipo aabbc. Ragionando inmodo analogo a quanto fatto per le precedenti domande, si ha
P (CC ) = 13¢
42
¢12¢
42
¢11¢
41
2¢N = 13¢6¢12¢6¢11¢4
2¢N ¼4.75% ,
dove il 2 a denominatore tiene conto del fatto che sono state conteggiate sia le ”quaterne”
del tipo aabb che quelle del tipo bbaa.
La domanda 4) richiede di calcolare la probabilità di una semplice coppia, vale a dire una
cinquina del tipo aabcd. In questo casi si ha
P (C ) = 13¢4
2
¢12¢41
¢11¢41
¢10¢41
6¢N =
13¢6¢12¢4¢11¢4¢10¢46¢N ¼ 42.3% ,
dove il 6 a denominatore tiene conto del fatto che per la formazione di una coppia del tipo
aabcd sono state conteggiate tutte le possibili terne bcd, bdc, cbd, cdb, dbc e dcb (cioè lepossibili permutazioni dei tre ogetti a, b, c).
14
8/20/2019 Dispensa Di Statisitica Prof Franceschini
17/131
1.3 PROBABILITÀ CONDIZIONATA
Definizione Dato uno spazio di probabilit̀a (S, Ω, P ) e due eventi A e B di Ω
con P (B) > 0, si chiama probabilità condizionata di A dato B il numero P (A \ B)/P (B). Tale numero, che esprime la probabilità che avvenga A una voltache sia avvenuto B, sarà indicato con P (AjB). Si ha dunque, per definizione,
P (AjB) = P (A \ B)P (B)
.
Nel caso di uno spazio S finito ed equiprobabile, indicato con jE j il numero deglielementi di un evento E 2 S, si ha
P (A \ B) = jA
\B
jjSj , P (B) = jB
jjSj ,e quindi
P (AjB) = jA \ BjjBj .
Esercizio 1.3.1 Si lanci una coppia di dadi. Se la loro somma è 6, si determini la probabilità che almeno uno dei dadi abbia dato come risultato 2.
Lo spazio campionario è
S =
f(h, k), h , k = 1, 2, 3, 4, 5, 6
g,
per cui, indicati con A e B i due eventi
B = “la somma è 6” = f(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)g ,A = “almeno un 2” = f(2, 2), (2, k), (h, 2), h,k = 1, 3, 4, 5, 6g ,
si ha A \ B = f(2, 4), (4, 2)g. Essendo lo spazio equiprobabile, ne consegue
P (AjB) = jA \ BjjBj = 2
5 .
Esercizio 1.3.2 In una popolazione i genotipi AA, Aa e aa (che rappresentano in questo
problema gli eventi elementari) abbiano probabilità rispettivamente
P (AA) = 49
100, P (Aa) =
42
100, P (aa) =
9
100 .
Supponiamo che dopo un certo tempo muoiano sistematicamente gli individui di tipo aa,sicchè gli adulti sono o AA o Aa. Ci si chiede: qual è la probabilità di AA fra gli adulti?
Bisogna calcolare la probabilità condizionata di AA dato l’evento B = AA [ Aa :
P (AAj AA[Aa) = P (AA \ [AA [ Aa])P (AA [ Aa) =
P (AA)
P (AA [ Aa) = 0.49
0.49 + 0.42 =
0.49
0.91 ¼ 54% .
15
8/20/2019 Dispensa Di Statisitica Prof Franceschini
18/131
Teorema (o legge) delle probabilità composte
Dati gli eventi A e B, con P (B) > 0, vale la relazione
P (A \ B) = P (B)¢P (AjB) .La dimostrazione segue banalmente dalla definizione di probabilità condizionata.
La legge appena formulata, che permette di calcolare la probabilità dell’intersezionedi due eventi note la probabilità di uno e la probabilità condizionata dell’altro datoil primo, si può facilmente estendere a più eventi. Riscritta la legge nel caso di dueeventi A1 e A2,
P (A1 \ A2) = P (A1)¢P (A2jA1) ,quella per tre eventi A1, A2 e A3 si ricava immediatamente
P (A1 \ A2 \ A3) = P ([A1 \ A2] \ A3) = P (A1 \ A2)¢P (A3jA1 \ A2) =
= P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) .Generalizzando al caso di n eventi A1, A2, . . . , An si ottiene
P \ni=1Ai
= P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) ¢ ¢ ¢ P (AnjA1 \ A2 \ ¢ ¢ ¢ \ An−1) .
Esercizio 1.3.3 Un’urna contiene 9 palline rosse e 6 gialle. Una dopo l’altra vengono estratte a caso, senza reimmissione, tre palline. Calcolare la probabilit à che siano tutte rosse.
Denotiamo con Ak, con k = 1, 2, 3, l’evento “la k-esima pallina è rossa”. L’evento di cui ciinteressa la probabilità è A1 \ A2 \ A3. Dal teorema delle probabilità composte segue che
P (A1
\A2
\A3) = P (A1)
¢P (A2
jA1)
¢P (A3
jA1
\A2) =
9
15 ¢
8
14 ¢
7
13
= 12
65
.
Proposizione Dati due eventi A e B , con P (A) > 0 e P (B) > 0, vale la relazione
P (AjB) = P (A)P (B)
¢P (BjA) .
Questa relazione consegue immediatamente dalla legge della probabilità compostascrivendo
P (A \ B) = P (B) ¢P (AjB) = P (A)¢P (BjA) .È una formula di grande utilità in quanto permette di ricavare la probabilità condi-zionata di un evento A dato B , sapendo la probabilità condizionata di B dato A. Ciòaiuta, ad esempio, nelle diagnosi delle malattie, come si vede nell’esercizio che segue.
Esempio 1.3.1 Se la probabilità teorica del sintomo B , data la malattia A, è il 30%, possocalcolare la probabilità che un paziente affetto dal sintomo B abbia la malattia A. Se, adesempio, in Emilia la percentuale delle persone affette dalla malattia A è il 15% e quelladelle persone che manifestano il sintomo B è il 5%, per cui P (A) = 0.15 e P (B) = 0.05,la probabilità della malattia A dato il sintomo B è
P (AjB) = P (A)P (B)
¢P (BjA) = 0.150.05
¢ 0.30 = 90% .
16
8/20/2019 Dispensa Di Statisitica Prof Franceschini
19/131
EVENTI INDIPENDENTI
Definizione Due eventi A e B si dicono indipendenti se
P (A \ B) = P (A)¢P (B) .
Il significato di questa definizione, che vale qualunque siano gli eventi A e B , apparechiaro se si considerano eventi di probabilità non nulla. Infatti, se P (B) > 0, dalladefinizione di probabilità condizionata, segue
P (A) = P (AjB) ,e analogamente, supposto P (A) > 0, si ha
P (B) = P (BjA) .A parole: la probabilità di A non dipende dal verificarsi oppure no di B, e viceversa.
Ciò giustifica la terminologia.
Teorema Se A e B sono indipendenti, lo sono anche A e BC , AC e B , AC e BC .
Dimostrazione
Dimostriamo dapprima l’indipendenza di A e BC . Essendo
P (BC ) = 1 ¡ P (B) , P (A) = P (A \ B) + P (A \ BC ) ,si ha
P (A \ BC ) = P (A) ¡ P (A \ B) = P (A) ¡ P (A) ¢P (B) == P (A)
¢[(1
¡P (B)] = P (A)
¢P (BC ) .
Quindi, se A e B sono indipendenti, lo sono anche A e BC .Scambiando l’ordine, si può dedurre che lo sono anche AC
e B , e quindi anche AC e BC .
Esercizio 1.3.4 Un test diagnostico di una malattia è corretto nel 98% dei casi. Ci si chiede:ripetendo due volte il test sullo stesso soggetto, qual è la probabilità di un doppio errore?
Sia A = “errore nel primo test”, B = “errore nel secondo test”. Essendo i due eventiindipendenti, si ha
P (A \ B) = P (A)¢P (B) = 2100
¢ 2100
= 410000
= 0.04% .
Esercizio 1.3.5 Aldo e Bruno sparano ad un bersaglio. Siano A e B rispettivamente l’evento “Aldo fa centro” e “Bruno fa centro”. Modello la situazione con una funzione di probabilit à
P tale che P (A) = 14 e P (B) = 25 , e supponendo che A e B siano indipendenti. Supposto
che Aldo e Bruno sparino contemporaneamente contro il bersaglio, qual è la probabilità che
1) almeno uno dei due centri il bersaglio? 2) uno solo dei due centri il bersaglio?
17
8/20/2019 Dispensa Di Statisitica Prof Franceschini
20/131
L’evento “almeno uno fa centro” è A [ B. Siccome A e B sono indipendenti, avremoP (A [ B) = P (A) + P (B) ¡ P (A \ B) = P (A) + P (B) ¡ P (A)¢P (B) =
= 14
+ 25 ¡ 1
4¢ 2
5 = 11
20 .
Per quanto riguarda invece l’evento “uno solo fa centro”, esso è dato da (A\BC )[(AC \B).Tenendo conto che A ed BC sono indipendenti, cosı̀ come AC e B , e che gli eventi A \ BC e (AC \ B) sono incompatibili, si ha
P
(A \ BC ) [ (AC \ B) = P (A \ BC ) + P (AC \ B) == P (A)¢P (BC ) + P (AC )¢P (B) ==
1
4¢ 3
5 +
3
4¢ 2
5 =
9
20 .
Definizione Dato uno spazio di probabilità (S, Ω, P ) si chiama partizione di Sun insieme di eventi incompatibili A1, A2, . . . , Ai, ¢ ¢ ¢ 2 Ω tali che
i
Ai = S .
Nel seguito considereremo partizioni finite, cioè partizioni formate da un numero finiton di eventi. In tal caso l’indice i assumerà ovviamente i valori da 1 a n.
Teorema (o formula) della probabilità totale (o di fattorizzazione)
Dato un evento B e una partizione finita A1, A2, ...An di S, con P (Ai) > 0 per ogni i, si ha
P (B) =ni=1
P (Ai)¢P (BjAi) .
Dimostrazione
In virtù della definizione della legge delle probabilità composte, per ogni i possiamoscrivere
P (Ai \ B) = P (Ai)¢P (BjAi) .Sommando per i che va da 1 ad n, si ha
ni=1 P (Ai \ B) = ni=1 P (Ai) ¢P (BjAi) ,da cui, essendoni=1 P (Ai \ B) = P
ni=1(Ai \ B)
= P
(ni=1 Ai) \ B
= P (S \ B) = P (B) ,
consegue la tesi.
Esercizio 1.3.6 Una fabbrica di autovetture riceve da tre fornitori i cambi da installare sulle auto nelle seguenti percentuali: 65%, 25% e 10%. Sapendo che i tre fornitori producono i
cambi con una difettosità rispettivamente del 5%, 10% e 25%, si vuole conoscere la probabilità
che la fabbrica di auto ha di ricevere un cambio difettoso.
18
8/20/2019 Dispensa Di Statisitica Prof Franceschini
21/131
In questo caso l’esperimento consiste nell’arrivo di un cambio. I possibili eventi elementari
(e quindi incompatibili) sono i Bk, k = 1, 2, 3, essendo Bk l’evento ”il cambio arriva dalfornitore k-esimo”. Chiaramente i Bk costituiscono una partizione di S. Indicato poi con A
l’evento ”il cambio ricevuto è difettoso”, si richiede P (A).I dati dell’esercizio sono i seguenti:
P (B1) = 65% , P (B2) = 25% , P (B3) = 10% ;
P (AjB1) = 5% , P (AjB2) = 10% , P (AjB3) = 25% .Utilizzando la formula di fattorizzazione si ha immediatamente
P (A) =3i=1
P (Bi)¢P (AjBi) = 0.65¢0.05 + 0.25¢0.10 + 0.10¢0.25 = 0.0825 = 8.25% .
Esercizio 1.3.7 Com’̀e noto, le trasfusioni di sangue possono avvenire con le modalità se-guenti: dal gruppo 0 a tutti i gruppi; da A ai gruppi A e AB ; da B ai gruppi B e AB ; da AB al solo gruppo AB . Supposto che le frequenze dei gruppi sanguigni siano
P (0) = 52%, P (A) = 32%, P (B) = 10%, P (AB) = 6% ,
ci si chiede: qual è la probabilità che un individuo x, scelto a caso, possa donare sangue a un individuo y pure scelto a caso?
Sia S l’insieme delle coppie (x, y) in cui sia x che y possono essere uguali a 0, A, B o AB .L’evento di cui vogliamo calcolare la probabilità è “x è donatore per y” e lo indichiamo con[x ) y]. Introduciamo poi gli eventi
[x=0] =
f(0, 0), (0, A), (0, B), (0, AB)
g,
[x=A] = f(A, 0), (A, A), (A, B), (A,AB)g ,[x=B] = f(B, 0), (B, A), (B, B), (B,AB)g ,[x=AB] = f(AB, 0), (AB,A), (AB,B), (AB,AB)g ,
e analogamente gli eventi [y =0], [y =A], [y =B],[y =AB]. Per calcolare P ([x ) y]) si puòusare il teorema della probabilità totale in due modi diversi: in un caso considereremo come
partizione di S gli eventi [x = 0], [x = A], [x = B] e [x = AB], nell’altro gli eventi [y = 0],[y =A], [y =B] e [y =AB].
Modo 1
P ([x ) y]) = P ([x=0])¢P ([x ) y][x=0]) + P ([x=A])¢P ([x ) y][x=A])++ P ([x=B])¢P ([x ) y][x=B]) + P ([x=AB])¢P ([x ) y][x=AB]) ==
52
100¢1 + 32
100¢ 32
100 +
6
100
+
10
100¢ 10
100 +
6
100
+
6
100¢ 6
100 ' 66% .
Modo 2
P ([x ) y]) = P ([y =0])¢P ([x ) y][y =0]) + P ([y =A])¢P ([x ) y][y =A])++ P ([y =B])¢P ([x ) y][y =B]) + P ([y =A]B)¢P ([x ) y][y =AB]) =
= 52
100¢ 52
100 +
32
100¢ 52
100 +
32
100
+
10
100¢ 52
100 +
10
100
+
6
100¢1 ' 66% .
19
8/20/2019 Dispensa Di Statisitica Prof Franceschini
22/131
8/20/2019 Dispensa Di Statisitica Prof Franceschini
23/131
Gli esercizi che seguono, in particolare il primo, sono utili ad illustrare il significatodi probabilità a priori e posteriori, e come si applica il teorema di Bayes.
Esercizio 1.3.8 Si abbiano tre scatole, indistinguibili una dall’altra, contenenti ciascuna due palline: una contiene due palline bianche (scatola 1), un’altra una pallina bianca ed una
rossa (scatola 2), la terza due palline rosse (scatola 3). Scelta una scatola a caso, si estrae
una pallina. La pallina è bianca. Ci si chiede: qual è la probabilità che la pallina sia stata
estratta dalla scatola i?
Indicato con B l’evento “la pallina estratta è bianca” e con Ai l’evento “la pallina è stataestratta dalla scatola i”, ci interessa calcolare le probabilità P (AijB). Osserviamo che si ha
P (A1) = P (A2) = P (A3) = 1
3 ; P (BjA1) = 1 , P (BjA2) = 1
2 , P (BjA3) = 0 .
Il fatto che le probabilità non condizionate P (Ai) (probabilità a priori) siano tutte uguali a13
consegue ovviamente dal fatto che le tre scatole sono indistinguibili. Applicando il teorema
di Bayes si ha quindi
P (A1jB) = P (BjA1)¢P (A1)P (BjA1)¢P (A1) + P (BjA2)¢P (A2) + P (BjA3)¢P (A3) =
= 1¢ 13
1¢ 13
+ 12¢ 1
3 + 0 ¢ 1
3
=1312
= 2
3 ;
P (A2jB) = P (BjA2)¢P (A2)12
=12 ¢ 13
12
= 1
3 .
P (A3jB) = P (BjA3)¢P (A3)12
= 0¢ 13
12
= 0 .
Osserviamo che si trova confermato il fatto ovvio che P (A3jB) = 0. Osserviamo anchecome il verificarsi dell’evento B influisca sulle probabilità degli eventi Ai modificandone leprobabilità.
Nota bene: dato un evento A, con 0 < P (A) < 1, gli eventi A e AC costituisconola più semplice partizione di S utilizzabile nell’applicazione del teorema di Bayes. Gliesempi che seguono utilizzano tutti una partizione di questo tipo.
Esercizio 1.3.9 In una scuola il 4% dei maschi e l’ 1% delle femmine sono più alti di 1.80 metri. Inoltre, il 60% sono femmine. Fra la totalità degli studenti ne viene scelto a caso uno che risulta essere più alto di 1.80 metri. Si chiede: qual è la probabilità che sia femmina?
Sia S l’insieme di tutti gli studenti. Siano poi F l’evento “lo studente scelto è femmina”ed A l’evento “l’altezza dello studente è maggiore di 1.80”. Si deve determinare P (F jA).Osservato che F C coincide con l’evento “lo studente è maschio”, i dati del problema sono
P (F ) = 0.60 , P (F C ) = 0.40 , P (AjF ) = 0.01 , P (AjF C ) = 0.04 .
21
8/20/2019 Dispensa Di Statisitica Prof Franceschini
24/131
Utilizzando il teorema di Bayes con la partizione di S data da F e F C , si ottiene
P (F
jA) =
P (AjF )¢P (F )P (AjF )¢P (F ) + P (AjF
C
)¢P (F C
)
=
= 0.01¢0.60
0.01¢0.60 + 0.04¢0.40 = 0.006
0.022 =
3
11 ¼ 27.3% .
Esercizio 1.3.10 Si sa che lo 0,5% dei soggetti di una citt̀a è ammalato di AIDS. Si sa che i test diagnostici danno una diagnosi corretta nell’80% dei sani e nel 98% dei malati. Qual
è la probabilità di un individuo, scelto a caso fra quelli sottoposti a test, di esser sano posto
che sia stato diagnosticato malato?
Sia S l’insieme degli individui sottoposti ai test per l’AIDS. Consideriamo gli eventi: A =“l’individuo scelto è sano”, AC = “l’individuo è malato”, B = “la diagnosi dell’individuo è:
sano”, BC = “la diagnosi è: malato”. Le statistiche sopra riportate implicano che
P (AC ) = 0.005 , P (BjA) = 0.80 , P (BC jAC ) = 0.98 .Determiniamo con la formula di Bayes P (AjBC ). Si ha
P (AjBC ) = P (BC jA)¢P (A)
P (BC jA)¢P (A) + P (BC jAC ) ¢P (AC ) =
= (0.995)(0.20)
(0.20)(0.995) + (0.98)(0.005) ' 0.976
(probabilità molto alta; se fossimo però dentro una categoria a rischio, avremmo una inci-
denza di malattia P (AC
) più elevata, per cui questa probabilità sarebbe più contenuta).
Esercizio 1.3.11 Una fabbrica che produce lampadine ha due linee di produzione A e B:dalla A esce il 60% delle lampadine prodotte e dalla B il rimanente 40%. Sappiamo inoltre che un 2% delle lampadine prodotte dalla linea A è difettoso, mentre la percentuale di difetti
per l’altra linea è il 3.8%. Ci si chiede: qual è la probabilità che una lampadina difettosa,scelta a caso fra tutte le lampadine prodotte in un dato periodo, sia uscita dalla linea A?
Sia S l’insieme di tutte le lampadine prodotte dalla fabbrica in un dato periodo. Se A èl’evento “la lampadina scelta è uscita dalla linea A”, AC è l’evento “la lampadina è uscitadalla linea B”. Indicato poi con D l’evento “la lampadina è difettosa”, i dati del problema
sonoP (DjA) = 0.02 , P (DjAC ) = 0.038, P (A) = 0.6 .
Il numero che cerchiamo è la probabilità condizionata di A dato per avvenuto D, cioèP (AjD). Utilizzando la formula di Bayes, si ottiene
P (AjD) = P (DjA) ¢ P (A)P (DjA) ¢ P (A) + P (DjAC ) ¢ P (AC ) =
(0.02)(0.6)
(0.02)(0.6) + (0.038)(0.4) =
= 0.012
0.012 + 0.0152 ¼ 0.441 = 44.1%
22
8/20/2019 Dispensa Di Statisitica Prof Franceschini
25/131
Esercizio 1.3.12 In un cappello ci sono 10 monete, 9 normali ed una truccata con due teste.Se ne estrae una a caso, che lanciata k volte consecutive dà k teste. Qual è la probabilità
che la moneta estratta sia quella truccata? Sia A l’evento “la moneta estratta dal cappello è quella truccata”. Chiaramente ne consegueche AC rappresenta l’evento “la moneta estratta è normale”. Indicato poi con T k l’evento“k consecutivi lanci della moneta danno k teste”, i dati del problema sono
P (A) = 110 ; P (AC ) = 910 ; P (T kjA) = 1 ; P (T kjAC ) =
12 )k .
Applicando la formula di Bayes si ha quindi
P (AjT k) = P (T kjA)¢P (A)P (T kjA)¢P (A) + P (T kjAC )¢P (AC ) =
1¢ 1101¢ 110 +
12
k ¢ 910 = 2k
9 + 2k
Ad esempio, per k=2, 4, 6, 8 si haP (AjT 2) = 413 ; P (AjT 4) = 1625 ; P (AjT 6) = 6473 ; P (AjT 8) = 256265 .
Osserviamo che 8 teste consecutive danno già una probabilità del 96.6% che la monetaestratta sia quella truccata.
Come ultima osservazione, notiamo che ci sono due modi di fare un campionamento,cioè di “scegliere a caso” un certo numero di elementi da una popolazione:
1) con reimmissione;2) senza reimmissione.
Rimarchiamo il fatto seguente, peraltro molto intuitivo: se il numero N di individui della popolazione é infinito o molto grande, non c’è differenza apprezzabile traestrarre con reimmissione ed estrarre senza reimmisione . In questo caso, pertanto,conviene per semplicità calcolare ogni cosa “come se” si estraesse con reimmissione.
L’esercizio che segue illustra le due diverse modalità di campionamento e mostra, perquanto sia solo N =10, il fatto precedentemente rimarcato.
Esercizio 1.3.13 Una scatola contiene 10 viti, di cui tre difettose. Si estraggono due viti a caso. Con quale probabilità nessuna delle due è difettosa?
Considerati gli eventi A = “prima vite estratta non difettosa”, B = “seconda vite estratta
non difettosa”, l’evento di cui ci interessa la probabilità è A \ B.Estraendo con reimmissione, prima di estrarre la seconda volta abbiamo nella scatola l’i-
dentica situazione di 10 viti di cui tre difettose; si ha pertanto P (A) = P (B) = 710 equindi
P (A \ B) = P (A)¢P (B) = 710
¢ 710
= 49% .
Estraendo invece senza reimmissione, l’evento B non è più indipendente da A, per cui si ha
P (A) = 710 , P (BjA) = 69 . Di conseguenzaP (A \ B) = P (A)¢P (BjA) = 710 ¢ 69 ' 47% .
23
8/20/2019 Dispensa Di Statisitica Prof Franceschini
26/131
1.4 VARIABILI ALEATORIE
Definizione Dato uno spazio di probabilità (S, Ω, P ), si dice variabile aleatoria
(o casuale) una funzione X che ad ogni s 2 S associa un numero X (s) 2 R, inmodo che ogni insieme fs : X (s) · ag sia un evento contenuto in Ω.L’evento fs : X (s) · ag si chiama immagine inversa o contro-immagine dell’intervallo(¡1, a] e viene indicato con X −1(¡1, a] o, adottando una forma più concisa edesplicita, con X ·a. Più in generale, se B è un sottinsieme di numeri reali, si indicacon X −1(B) l’evento fs : X (s) 2 Bg.È facile far vedere che, 8a 2 R, gli insiemi di numeri reali X −1(a, +1) , X −1(a, b] ,X −1
fag , X −1(a, b) , X −1(¡1, a) e X −1[a, +1) sono eventi. Ad esempio,il fatto che X −1
(a, +1)
sia un evento consegue banalmente dal fatto che l’insieme
fs : X (s) > a
g è il complementare dell’evento
fs : X (s)
· a
g. Anche gli eventi
appena elencati sono denotati in forma concisa con X > a , a < X ·b , X =a , etc...Dunque, l’immagine inversa di un qualunque intervallo è un evento di Ω. Ci sonoperò altri sottinsiemi B di numeri reali tali che X −1(B) è un evento.
Definizione Si chiama classe dei Boreliani la più piccola classe di sottinsiemi di numeri reali che comprende tutti gli intervalli ed è chiusa rispetto alle operazioni di unione (finita e numerabile) e complementazione.
Proposizione Ogni Boreliano B è tale che X −1(B) è un evento .
I Boreliani rappresentano dunque i sottinsiemi di numeri reali che possono essere
associati attraverso X −1
agli eventi di Ω. Ciò porta alla seguente definizione:Definizione Data una variabile aleatoria X , si chiama distribuzione o legge di X l’applicazione che ad ogni Boreliano B associa la probabilità della sua immagine inversa:
B ¡! P X −1(B) .Esempio 1.4.1 Sia S = f1, 2,..., 6g lo spazio campionario relativo all’esperimento dellancio di un dado (non truccato). Definiamo X := ”numero uscente da un lancio”, cioè
X (1) := 1, X (2) := 2 . . . X (6) := 6 .
Potremo allora calcolare la probabilità di eventi del tipo X ·2.5, 1 < X ·4 oppure X ¸3.Ricordando che P (X =k) = P (
fk
g) = 16 , per k = 1, 2, . . . , 6, si ha
P (X ·2.5) = P (X =1) + P (X =2) = 13 ,P (1< X ·4) = P (X =2) + P (X =3) + P (X =4) = 12 ,P (X ̧ 3) = P (X =3) + P (X =4) + P (X =5) + P (X =6) = 2
3 .
Su uno stesso spazio di probabilità possono essere definite più variabili casuali. Ad esempio,
una seconda variabile casuale può essere definita nel modo seguente:
Y := 0 se l’esito del lancio è pari; Y := 1 se l’esito del lancio è dispari.
24
8/20/2019 Dispensa Di Statisitica Prof Franceschini
27/131
Si ha cosı̀ : P (Y =0) = P (f2g) + P (f4g) + P (f6g) = 12 ,P (Y =1) = P (f1g) + P (f3g) + P (f5g) = 12 ,P (1< Y
·4) = P (
;) = 0 , P (Y < 0) = P (
;) = 0 ecc.
Definizione Data una variabile aleatoria X definita sullo spazio di probabilit̀a(S, Ω, P ), si chiama funzione di distribuzione o di ripartizione di X la funzione F : R ! [0, 1] cosı̀ definita:
F (x) = P (X ·x) , x 2 R .
Esempio 1.4.2 Consideriamo la variabile casuale Y definita nell’esempio precedente. Indi-cata con F Y (x) la funzione di distribuzione ad essa associata, avremo
F Y (x) = P (Y
·x) =
P (;) = 0 per x
8/20/2019 Dispensa Di Statisitica Prof Franceschini
28/131
VARIABILI ALEATORIE DISCRETE
Definizione Una variabile aleatoria X è discreta se
1) c’è un insieme finito o numerabile di valori xj , tali che P (X =xj) > 0 ;
2)
j P (X =xj) = 1 .
Ovviamente, j = 1,...,n nel caso finito e j 2 N nel caso numerabile.Una variabile aleatoria discreta, essendo individuata dai valori xj e dalle corrispon-denti probabilità pj ´ P (X =xj), può essere cos̀ı rappresentata:
X :
x1, x2, ... p1, p2, ...
In maniera equivalente essa è poi rappresentabile mediante la relativa funzione diprobabilità f (x) definita come
f (x) = pj se x = xj ( j = 1, 2,...)
0 altrove,
oppure mediante la relativa funzione di distribuzione F (x) già definita per una qua-lunque variabile aleatoria , che nel caso discreto diventa
F (x) =
j:xj · xf (xj) .
Più esplicitamente, come peraltro già visto nell’esempio 1.4.2, F (x) è la seguentefunzione a gradini
F (x) =
0 se x < x1
p1 se x1 · x < x2 p1 + p2 se x2 · x < x3¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢
p1 + ¢ ¢ ¢ + pn−1 se xn−1 · x < xn¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢
Esempio 1.4.3 Nel caso di un dado non truccato, la variabile casuale X definita nell’esempio1.4.1 e la relativa funzione di probabilità sono date da
X :
1 2 3 4 5 616
16
16
16
16
16
, f (x) =
16 per x = 1, 2, 3, 4, 5, 6
0 altrimenti.
La funzione distribuzione di X e il relativo grafico sono riportati qui sotto.
F (x) =
0 per x
8/20/2019 Dispensa Di Statisitica Prof Franceschini
29/131
Esempio 1.4.4 Si consideri l’esperimento del lancio simultaneo di due dadi non truccati. Inquesto caso lo spazio compionario S è costituito dai 36 eventi elementari (i, j), con i, j =1, 2, 3, 4, 5, 6. Consideriamo la variabile aleatoria discreta Z , con Z := somma dei duenumeri estratti. Si ha quindi
Z :
2 3 4 5 6 7 8 9 10 11 12
136
236
336
436
536
636
536
436
336
236
136
Il grafico sottoriportato mostra la funzione di distribuzione relativa a Z .
VARIABILI ALEATORIE CONTINUE
Definizione Una variabile aleatoria X si dice assolutamente continua se esiste una funzione f : R !R+0 che permette di rappresentare la funzione distribuzione F (x) di X come funzione integrale, cioè tale che
F (x) =
x−∞
f (t)dt , 8x 2 R .
La funzione f (¢), che è assunta continua eccetto al più che in un numero finito di punti,è detta densità di probabilità (o, più semplicemente, densità) dellavariabile aleatoria X .
Nel seguito (come peraltro già fatto nel titolare il paragrafo), per semplicità, ci riferi-remo alle variabili casuali ”assolutamente continue” con il solo aggettivo ”continue”.
Osservazione: Qui e altrove si usano integrali ”impropri”, cioè integrali definiti su un in-tervallo con un estremo di integrazione infinito (qualche volta entrambi). Senza approfondire
l’argomento, ricordiamo che x−∞
f (t)dt := lima→−∞
xa
f (t)dt ,
+∞x
f (t)dt := lima→+∞
ax
f (t)dt .
Per quanto riguarda poi l’integrale su tutto l’asse reale, una possibile definizione è la seguente: +∞−∞
f (t)dt :=
0−∞
f (t)dt +
+∞0
f (t)dt .
27
8/20/2019 Dispensa Di Statisitica Prof Franceschini
30/131
La funzione densità gode di alcune proprietà che adesso elenchiamo.
1) Vale la relazione
P (a < X · b) = ba f (t)dt .Essa consegue immediatamente dal fatto che P (a 0. Analogamente, se X è continua si ha
P (a < X < b) = P (a
·X < b) = P (a< X
·b) = P (a
·X
·b) .
Queste stesse probabilità possono differire tra loro nel caso di X discreta.
Definizione Una variabile casuale X continua si dice uniformemente distribuitao equidistribuita se la sua funzione densità f (x) o, equivalentemente, la sua fun-zione di distribuzione F (x) sono cos̀ı definite:
f (x) =
0 per x·a1
b ¡ a per a
8/20/2019 Dispensa Di Statisitica Prof Franceschini
31/131
Esempio 1.4.5 Si consideri la variabile casuale continua di densità
f (x) = 1
2 x se 0·x·2
0 altrove
.
Si chiede di verificare che f (x) è effettivamente una densità, calcolarne la funzione di distribu-zione F (x) e quindi disegnarla assieme alla f (x). Si chiede anche di calcolare P ( 12
8/20/2019 Dispensa Di Statisitica Prof Franceschini
32/131
I grafici di f (x) e F (x) sono dunque i seguenti:
Essendo limx→+∞ F (x) = 1, ne consegue +∞−∞ f (x)dx = 1, e quindi risulta verificato che
f (x) è una densità. Per quanto concerne infine il calcolo di P (X · ¡0.5), si haP (X · ¡0.5) = F (¡0.5) = 18 .
Questa probabilità corrisponde all’area sottesa da f (x) fra ¡1 e ¡12 , ossia, come si vede dalgrafico, all’area di un triangolo di base 12 e altezza
12 .
Esercizio 1.4.2 Si consideri una variabile casuale X avente la seguente funzione di distribu-zione:
F (x) =
0 per x·0
150 x
2 per 0·x·5¡ 150 x2 + 25 x ¡ 1 per 5·x·101 per x¸10 .
a) quali sono i possibili valori della X ? b) qual è la funzione densit̀a della X ?
a) La variabile aleatoria X assume, con probabilità 1, i valori compresi tra 0 e 10. Infatti:
P (0·X ·10) = F (10) ¡ F (0) = 1 .b) Poichè nei punti di continuità di f (x) vale la relazione F ′(x)=f (x), si ha
f (x) =
0 per x·0
125 x per 0·x·5¡ 1
25x + 2
5 per 5·x·10
0 per x¸10 .Riportiamo qui sotto i grafici della funzione di distribuzione e della funzione densità della
variabile casuale X . Osserviamo che dal grafico di f (x) risulta evidente la simmetria della
distruibuzione rispetto ad x =5.
30
8/20/2019 Dispensa Di Statisitica Prof Franceschini
33/131
FUNZIONI DI VARIABILE ALEATORIA
Spesso, data una variabile casuale X , interessa una sua funzione g(X ), che a sua volta
è una variabile casuale. Negli esempi che seguono si considerano appunto variabilicasuali di questo tipo. L’ultimo esempio, per quanto semplice, è forse quello piùsignificativo in quanto mostra come si ricava la funzione di probabilità (nel caso diun variabile casuale discreta).
Esercizio 1.4.3 In un processo automatico si riempiono bottigliette di sciroppo. Il contenuto di ciascuna bottiglietta risulta Y = 100+X ml (millilitri), dove X è la variabile casuale definita nell’esercizio 1.4.1. Si chiede: in una partita di 1000 confezioni, quante approssima-
tivamente conterranno meno di 99.5 ml?
Il numero di bottigliette cercato è uguale a 1000 moltiplicato per P (Y · 99.5), cioè perP (X + 100 · 99.5) = P (X · ¡0.5) .
Questa probabilità è già stata calcolata nell’esercizio 1.4.1 e vale 1
8 . Il numero approssimativodelle bottiglie aventi contenuto inferiore a quanto richiesto è dunque
18 ¢1000 = 125 .
Esercizio 1.4.4 Si considerino le variabili casuali Y = 3X , Q = X 2 e R =p
X , dove X è la variabile casuale dell’esercizio 1.4.2. Calcolare:
a) P (3·Y ·21); b) P (Q¸64); c) P (2·R·3) .Si ha:
a) P (3
·Y
·21) = P (3
·3X
·21) = P (1
·X
·7) = F (7)
¡F (1) =
4
5
;
b) P (Q¸64) = P (X 2¸64) = P [(X ·¡8) [ (X ̧ 8)] = P (X ̧ 8) = 1 ¡ F (8) = 225
;
c) P (2·R·3) = P (2·p
X ·3) = P (4·X ·9) = F (9) ¡ F (4) = 3350
.
Esercizio 1.4.5 Si consideri la variabile casuale X sotto definita e si ricavi la funzione di probabilità della variabile Y := X 2.
X :
¡2 ¡1 0 1 215
15
15
15
15
Osservato che mentre X assume il valore xi la variabile Y assume il valore x2i , ne consegueche Y può assumere solo i valori 0, 1 e 4. Più precisamente Y assume il valore 0 quando X assume il valore 0, il valore 1 quando X assume il valore -1 oppure 1, il valore 4 quando X assume il valore -2 oppure 2. Per quanto riguarda, ad esempio, la probabilit à che Y assumail valore 1, essa sarà data dalla somma delle probabilità che X assuma i valori -1 e 1, ossia:P (Y =1) = P (X =¡1) + P (X =1). La variabile casuale X 2 sarà dunque la seguente:
Y = X 2 :
0 1 415
25
25
31
8/20/2019 Dispensa Di Statisitica Prof Franceschini
34/131
1.5 MEDIA E VARIANZA
Definizione
Si chiama media (o valor medio o valore atteso o aspettazione matematicao speranza matematica) della variabile aleatoria X il numero, che indicheremo indifferentemente con µX o E (X ), cos̀ı definito:
µX ´ E (X ) :=i
xif (xi) , se X è discreta ,
µX ´ E (X ) := +∞−∞
xf (x)dx , se X è continua .
Nel caso discreto numerabile, per garantire la convergenza della serie, si assume che
essa sia assolutamente convergente, cioè che sia i jxijf (xi) < +1.Osservazione: Nel caso discreto la media è la somma dei valori xi moltiplicati per lerispettive probabilità f (xi) ´ P (X =xi). Essa rappresenta dunque la media ponderatadei possibili valori di X , ciascuno pesato con la sua probabilità.
Esempio 1.5.1 Si consideri l’esperimento del lancio simultaneo di una coppia di dadi nontruccati. Abbiamo già visto che lo spazio campionario S è
S = f(i, j), i , j = 1, 2, 3, 4, 5, 6g .Sia X la variabile aleatoria che assegna a ciascun evento elementare (i, j) il massimo fra i
e j . Allora l’insieme immagine di X , cioè l’insieme di tutti i possibili valori che la X puòassumere, è il seguente
X (S) = f1, 2, 3, 4, 5, 6g .Tenendo conto che
P (X =1)=P f(1, 1)g= 1
36 ,
P (X =2)=P f(1, 2)g + P f(2, 1)g + P f(2, 2)g= 336 ,
e, generalizzando, essendo 2k—1 il numero degli eventi elementari f(i, j)g che hanno comevalore massimo k ,
P (X =k)= 2k ¡ 1
36 , k = 3, 4, 5, 6 ,
la variabile aleatoria X risulta cosı̀ definita:
X :
1 2 3 4 5 6
136
336
536
736
936
1136
.
La media di X si calcola dunque nel modo seguente:
µX =6
k=1
xkf (xk) = 1¢ 136
+ 2¢ 336
+ 3¢ 536
+ 4¢ 736
+ 5¢ 936
+ 6¢ 1136
= 161
36 ¼ 4.47 .
32
8/20/2019 Dispensa Di Statisitica Prof Franceschini
35/131
Proposizione Data la variabile casuale X , la media della variabile casuale g(X )è la seguente:
E [g(X )] = i g(xi)f (xi) , se X è discreta ,E [g(X )] =
+∞−∞
g(x)f (x)dx , se X è continua.
La proposizione consegue direttamente dalle definizione di media. Ad esempio, seg(X )=X 2, si ha
E [X 2] =i
x2i f (xi) , se X è discreta ,
E [X 2] =
+∞−∞
x2f (x)dx , se X è continua.
Nel seguito vedremo che il calcolo di E [X 2
] è estremamente utile.
Definizione
Si chiama varianza (o variazione standard) della variabile aleatoria X il numero,che indicheremo con σ2X o V ar(X ), cosı̀ definito:
σ2X ´ V ar(X ) := E
(X ¡ µX)2
.
Quindi, tenendo conto della definizione di µX ,
σ2X ´ V ar(X ) := i (xi ¡ µX)2f (xi) , se X è discreta ,
σ2X ´ V ar(X ) := +∞−∞
(x ¡ µX)2f (x)dx , se X è continua .
La varianza σ2X è sempre non negativa. Esiste un unico caso in cui è nulla. Questocaso, che è privo di interesse probabilistico, si ha se e solo se la variabile X è degenere,cioè se la sua funzione di probabilità vale 1 in un punto x1 e 0 in ogni altro punto x.
Definizione La radice quadrata della varianza si chiama deviazione standard (oscarto quadratico medio) e si indica con σX .
La varianza (e quindi anche la deviazione standard) misura la “dispersione” dei valoriassunti da X rispetto al suo valor medio µX : tanto più grande è σ
2X , tanto più i valori
di X saranno lontani dal valor medio; per contro, tanto più σ2X è piccola, tanto piùi valori di X saranno raccolti attorno a µX . Si può anche dire che la media di unavariabile casuale è tanto più attendibile quanto più piccola è la sua varianza.
Teorema σ2X = E (X 2) ¡ µ2X .
Facciamo la dimostrazione nel caso discreto. Nel caso continuo si procederà in manieradel tutto analoga con integrali al posto di sommatorie. Ricordando la definizione di
33
8/20/2019 Dispensa Di Statisitica Prof Franceschini
36/131
µX e che
i f (xi)=1, si ottiene
σ2X = i(xi ¡ µX)2f (xi) =
i(x2i ¡ 2xiµX + µ2X)f (xi) =
=i
x2i f (xi) ¡ 2µXi
xif (xi) + µ2X
i
f (xi) =
=i
x2i f (xi) ¡ 2µ2X + µ2X = E (X 2) ¡ µ2X .
Teorema (trasformazione lineare di una variabile aleatoria)
Data una variabile aleatoria X , si consideri la variabile aleatoria aX + b, con a e breali qualunque, a 6= 0. Valgono allora le seguenti relazioni:
µaX+b = aµX + b , σ2aX+b = a
2σ2X .
Dimostrazione
Come nel caso del precedente teorema, proviamo anche questo nel caso discreto. Lavariabile aleatoria aX + b è la seguente:
ax1 + b ax2 + b ... axn + b ...f (x1) f (x2) ... f (xn) ...
Ricordando che
i f (xi) = 1, si ha immediatamente
µaX+b =i
(axi + b)f (xi) = ai
xif (xi) + bi
f (xi) = aµX + b .
Ora, sfruttando questo risultato, calcoliamo la varianza:σ2aX+b =
i
(axi + b ¡ µaX+b)2f (xi) =i
(axi + b ¡ aµX ¡ b)2f (xi) =
= a2i
(xi ¡ µX)2f (xi) = a2σ2X .
Corollario E (X ¡ µX) = 0 .Si ottiene immediatamente dall’ultimo teorema ponendo a =1 e b =¡µX .
Corollario σ2aX = a2σ2X .
Si ottiene immediatamente dall’ultimo teorema ponendo b =0.
Corollario σ2X+b = σ2X .
Si ottiene immediatamente dall’ultimo teorema ponendo a =1.
Definizione Sia X una variabile casuale con varianza σ 2X> 0. Si chiama variabilecasuale standardizzata associata ad X la variabile casuale X ∗ cos̀ı definita:
X ∗ = X ¡ µX
σX.
34
8/20/2019 Dispensa Di Statisitica Prof Franceschini
37/131
Proposizione Ogni variabile casuale standardizzata ha media nulla e varianzauguale ad 1, ossia
µX∗ = 0 , σ2X∗ = 1 .
Queste proprietà di X ∗ seguono immediatamente dai teoremi e dai corollari prece-denti. Infatti:
µX∗ = E X ¡ µX
σX
= E
X σX
¡ µX
σX=
1
σX
E (X ) ¡ µX
= 0 ,
σ2X∗ = V arX ¡ µX
σX
= V ar
X σX
¡ µXσX
=
1
σ2Xσ2X = 1 .
Definizione Data una variabile aleatoria X , si chiama mediana di X un valore x0 tale che
P (X < x0) · 12 · P (X ·x0) .
Dalla definizione consegue immediatamente che, se F (x) è la funzione distribuzionedi X , la mediana è un punto x0 tale che F (x0) =
12 se un tale x0 esiste. In caso
contrario x0 è un punto di discontinuità di F (x) tale che F (x) < 1
2 per x < x0 e
F (x) > 12
per x ¸ x0. È anche facile constatare che vi possono essere più mediane;più precisamente le mediane costituiscono un intervallo chiuso (che eventualmente siriduce ad un punto).
I tre grafici proposti qui sotto illustrano le tre situazioni più comuni: a) F (x) ècontinua in ogni x (e quindi associata ad una variabile casuale X continua con f (x)continua 8x): esiste un unico x0 tale che F (x0) = 12 ; b) F (x) è costante a tratti (equindi associata ad una variabile casuale X discreta), con F (x) 6= 12 , 8x. In questocaso, se F (x) assume i valori α e β con α < 1
2
< β , saltando da α a β nel punto x∗,allora x0 = x∗. c) F (x) è costante a tratti , con F (x) = 12 , per x1 · x < x2: ognix 2 [x1, x2] può essere assunto come x0.
Esempio 1
.5
.2
Consideriamo di nuovo l’esperimento dell’esempio 1.5.1. Calcoliamo la va-rianza di X mediante la relazione σ2X=E (X 2)¡µ2X . A tal fine andiamo a calcolare E (X 2).
E (X 2) =6
i=1 x2i f (xi) = 1
2 1
36 + 22
3
36 + 32
5
36 + 42
7
36 + 52
9
36 + 62
11
36 =
791
36 ¼ 21.97 .
Ora, applicando il risultato precedentemente ricordato e utilizzando il valore di µX trovatonell’esempio 1.5.1, si ottiene
σ2X = E (X 2) ¡ µ2X ¼ 21.97 ¡ (4.47)2 ¼ 21.97 ¡ 19.98 = 1.99 ,
e quindi la deviazione standard
σX ¼p
1.99 ¼ 1.41 .
35
8/20/2019 Dispensa Di Statisitica Prof Franceschini
38/131
Esempio 1.5.3 Sia X la variabile aleatoria continua (già considerata nell’esempio 1.4.5) lacui funzione densità è
f (x) = 1
2 x se 0·x·20 altrove
.
Calcoliamo media e varianza (quest’ultima in due modi: sia applicando la definizione che
attraverso il calcolo di E (X 2)).
µX = +∞−∞ xf (x)dx =
20
12
x¢xdx =x3
6
20
= 43
,
σ2X = +∞−∞ (x ¡ µX)2f (x)dx =
20
x ¡ 43
2¢ 12 xdx =
x4
8 ¡ 49 (x3 ¡ x2)2
0= 29 ,
σ2X = E (X 2) ¡ µ2X =
+∞−∞ x
2f (x)dx ¡ µ2X = 2
012 x
3dx ¡ 169 =x4
8
20¡ 169 = 29 .
Esercizio 1.5.1 Si eseguano tre lanci consecutivi di una moneta truccata in modo tale che P (T ) = 34 . Sia X la variabile casuale che rappresenta il numero di teste ottenute nei tre lanci. Si chiede di calcolarne la media, la varianza e la deviazione standard.
La variabile X può assumere i valori 0,1,2,3. Le probabilità che X assuma ciascuno di questivalori sono le seguenti:
P (X =0) = P (CC C ) =
14
3= 164 ,
P (X =1) = P (T CC ) + P (CT C ) + P (CCT ) = 3 34
14
2
= 964 ,
P (X =2) = P (T T C ) + P (T CT ) + P (CT T ) = 3 342 14 = 2764 ,P (X =3) = P (T T T ) =
34
3= 2764 ,
La funzione di probabilità di X è dunque la seguente: X :
0 1 2 3
164
964
2764
2764
.
Avremo quindi:
µX = 0¢ 164
+ 1¢ 964
+ 2¢ 2764
+ 3¢ 2764
= 9
4 ;
σ2X =
0 ¡ 94
2¢ 1
64 +
1 ¡ 9
4
2¢ 9
64 +
2 ¡ 9
4
2¢ 27
64 +
3 ¡ 9
4
2¢ 27
64 =
9
16 ;
σX =
9
16 =
3
4 .
Per il calcolo della varianza si sarebbe potuto procedere anche utilizzando la relazione σ2X =E (X 2) ¡ µ2x. In tal caso si sarebbe dovuto calcolare E (X 2) ottenendo
E (X 2) = 02 ¢ 164
+ 12 ¢ 964
+ 22 ¢ 2764
+ 32 ¢ 2764
= 45
8 ,
e quindi, come prima,
σ2X = E (X 2) ¡ µ2x =
45
8 ¡ 81
16 =
9
16 .
36
8/20/2019 Dispensa Di Statisitica Prof Franceschini
39/131
8/20/2019 Dispensa Di Statisitica Prof Franceschini
40/131
1.6 VARIABILI ALEATORIE BIDIMENSIONALI
In un esperimento, invece che ad un unico risultato numerico, possiamo essere inte-
ressati a più valori (ad esempio, per una persona, a peso, altezza, età, ecc.). Ciascunodi tali valori è una variabile aleatoria, ma anche la n-upla di valori ottenuti può es-sere considerata come una variabile aleatoria multipla o n—dimensionale. Qui, persemplicità, tratteremo solo, seppure brevemente, le variabili aleatorie bidimensionali.
Definizione
Dato uno spazio di probabilità (S, Ω, P ), si dice variabile aleatoria bidimensio-nale una coppia di funzioni (X, Y ) che ad ogni s 2 S associa un coppia di numeri reali
X (s), Y (s)
, tali che ogni insieme fs : X (s) · a , Y (s) · bg sia un evento
contenuto in Ω.
Anche nel caso di variabili casuali bidimensionali lo strumento essenziale per il loroutilizzo è la funzione distribuzione, la cui definizione si ottiene immediatamente ge-neralizzando quella per variabili unidimensionali. Infatti, si ha
Definizione
Data una variabile aleatoria bidimensionale (X, Y ) definita sullo spazio di proba-bilità (S, Ω, P ), si chiama funzione di distribuzione o di ripartizione ad essaassociata la funzione F : R2 ! [0, 1] cos̀ı definita:
F (x, y) = P (X ·x, Y · y) , (x, y) 2 R2 .
La virgola nella probabilità appena scritta equivale ad una intersezione. Per favorire lacomprensione del significato della F (x, y), ne ricordiamo tutte le possibili espressioni:
F (x, y) = P (X ·x, Y · y) == P
s 2 S : X (s) · x, Y (s) · y=
= P
(X · x) \ (Y · y) == P
s 2 S : X (s) · x \ s 2 S : Y (s) · y .
Ragionando sulla base del disegno riportato quiaccanto e utilizzando la proprietà additiva dellaprobabilità nel caso di eventi incompatibili, si di-mostra che
P (x1
8/20/2019 Dispensa Di Statisitica Prof Franceschini
41/131
Le funzioni di distribuzione F X(x) della X e F Y (y) della Y sono dette funzioni didistribuzione marginali della variabile congiunta (X, Y ).
Le variabili casuali bidimensionali, cos̀ı come quelle unidimensionali, possono esseredi tipo discreto o di tipo continuo.
Una variabile bidimensionale (X, Y ) è discreta se esiste un insieme finito o numerabiledi coppie di numeri reali (xr, ys), r = 1, 2, . . . , s = 1, 2, . . . , tali che
P (X =xr, Y = ys) = prs¸0 , conr,s
prs = 1 .
Eventuali coppie (xr, ys) con prs=0 possono rappresentare coppie di valori mai assuntidalla variabile casuale, che però per comodità sono presi ugualmente in considerazioneassegnando loro probabilità nulla.
Si chiama funzione di probabilità congiunta la funzione
f (x, y) =
prs se (x, y) = (xr, ys) r = 1, 2, . . . , s = 1, 2, . . .
0 altrove ,
mentre si chiamano funzioni di probabilità marginali le funzioni
f X(x) =
pr• =
s prs se x = xr
0 altrove,
f Y (y) =
p•s =
r prs se y = ys
0 altrove .
Nel caso di una variabile aleatoria (X, Y ) discreta finita, supposto r = 1, 2, . . . , N es = 1, 2, . . . , M , le funzioni di probabilità congiunta e marginali vengono rappresentateattraverso la seguente tabella:
Y
y1 y2 . . . . . . . . . yM
x1 p11 p12 . . . . . . . . . p1M p1•x2 p21 p22 . . . . . . . . . p2M p2•
X . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . .xN pN 1 pN 2 . . . . . . . . . pNM pN •
p•1 p•2 . . . . . . . . . p•M
Una variabile bidimensionale (X, Y ) è continua se esiste una funzione f (x, y), nonnegativa, tale che
F (x, y) =
x−∞
y−∞
f (u, v)dudv .
La funzione f (x, y) è detta funzione densità congiunta. Naturalmente si ha +∞−∞
+∞−∞
f (u, v)dudv = 1 ,
39
8/20/2019 Dispensa Di Statisitica Prof Franceschini
42/131
che costituisce la condizione perché una funzione f (x, y)¸0 sia una funzione densità.Si può poi dimostrare che le funzioni di distribuzione marginali sono date da
F X(x) = x−∞ +∞
−∞ f (u, v)dvdu ,F Y (y) =
y−∞
+∞−∞
f (u, v)du
dv ,
e quindi, per definizione di funzione densità, le densità marginali delle variabili X e Y sono date da
f X(x) =
+∞−∞
f (x, v)dv , f Y (y) =
+∞−∞
f (u, y)du .
Sia A un sottinsieme di R2 tale che l’insieme
s :
X (s), Y (s)
2 A
sia un evento di
Ω. Un importante teorema riguardante la funzione densità congiunta è il seguente:Teorema (senza dimostrazione)
P
(X, Y ) 2 A = A
f (x, y) dxdy .
Un corollario, molto utile ai fini della risoluzione degli esercizi (come si vedrà nell’e-sercizio 1.6.4), segue in maniera immediata dal teorema appena enunciato:
Corollario Siano (X, Y ) una variabile casuale bidimensionale, f (x, y) la sua fun-zione densità congiunta, Φ(X, Y ) una variabile casuale funzione di X e Y , e B unboreliano di R. Vale la relazione
P Φ(X, Y ) 2 B = A
f (x, y) dxdy , con A = (x, y) : Φ(x, y) 2 B .La dimostrazione è immediata:
P
Φ(X, Y ) 2 B = P s : ΦX (s), Y (s) 2 B == P
s :
X (s), Y (s)
2 (x, y) : Φ(x, y) 2 B == P
s :
X (s), Y (s)
2 A .Teorema ( senza dimostrazione) Se (X, Y ) è una variabile casuale bidimensionale e Φ(X, Y )
una variabile casuale funzione di X
e Y
, si ha
E [Φ(X, Y )] =N r=1
M s=1
Φ(xr, ys) prs , se X e Y sono discrete (e finite);
E [Φ(X, Y )] =
+∞−∞
+∞−∞
Φ(x, y) f (x, y) dxdy , se X e Y sono continue .
Corollario E [aX + bY ] = aE [X ] + bE [Y ] .
Corollario E N
k=1 αkX k
=N
k=1 αkE [X k] .
40
8/20/2019 Dispensa Di Statisitica Prof Franceschini
43/131
Definizione Si chiama covarianza delle variabili casuali X e Y , e la indicheremo con σX,Y o Cov (X, Y ), il numero
σX,Y
´Cov(X, Y ) := E (X ¡ µX)(Y ¡ µY ) .In virtù del teorema precedente la covarianza risulta quindi cos̀ı definita:
σX,Y =N r=1
M s=1
(xr ¡ µX)(ys ¡ µY ) prs , se X e Y sono discrete (e finite);
σX,Y =
+∞−∞
+∞−∞
(x ¡ µX)(y ¡ µY )f (x, y)dxdy , se X e Y sono continue.
Teorema σX,Y = µXY ¡ µXµY .Dimostrazione
σX,Y = E (X ¡ µX)(Y ¡ µY ) = E XY ¡ µXY ¡ µY X + µXµY == E (XY ) ¡ µXE (Y ) ¡ µY E (X ) + µXµY = µXY ¡ µXµY .
Teorema σ2X±Y = σ2X + σ
2Y § 2σX,Y .
Dimostrazione
σ2X±Y = E
(X § Y ) ¡ (µX § µY )2
= E
(X ¡ µX) § (Y ¡ µY )2
=
= E
(X ¡ µX)2 + (Y ¡ µY )2 § 2(X ¡ µX)(Y ¡ µY )
= σ2X + σ2Y § 2σX,Y .
Il teorema appena dimostrato per due variabili casuali, si può facilmente generalizzarealla somma di n variabili X i:
Teorema V ar ni=1
X i = ni=1
V arX i+2 i=1,...,n−1k=i+1,...,n
CovX i, X k .(senza dimostrazione)
Teorema σ2X,Y · σ2Xσ2Y . (senza dimostrazione)
Introduciamo ora l’importan