Esperanza Mate Matic A
-
Upload
evelio-cutz -
Category
Documents
-
view
52 -
download
0
Transcript of Esperanza Mate Matic A
Esperanza Matemática
UCR – ECCI
CI-1352 Probabilidad y Estadística
Prof. M.Sc. Kryscia Daviana Ramírez Benavides
Media de una Variable Aleatoria
Sea X una variable aleatoria con distribución de probabilidadf(x). La media o valor esperado de X es Si X es discreta
µ = µ X = E(X ) =∑ xfx
(x)
Si X es continua+∞
µ = µ X = E(X ) =∫−∞ xf (x)dx
UCR-ECCI CI-1352 Probabilidad y Estadística
Esperanza Matemática 2
Media de una Variable Aleatoria (cont.)
Teorema. Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor esperado de la variable aleatoria g(X) es Si X es discreta
µ g ( X ) =
Si X es continua
E[g (X )] =
∑ g (x) f
x
+∞
(x)
µ g ( X ) = E[g (X )] =
∫−∞g (x) f
(x)dx
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 3
Media de una Variable Aleatoria (cont.)
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria g(X,Y) es Si X y Y son discretas
µ g ( X ,Y
)
= E[g (X ,Y )] =
∑ ∑ g
(x,y x
y ) f
(x, y )
Si X y Y son continuas+∞ +∞
µ g ( X ,Y
)
= E[g (X ,Y )] = ∫ ∫ g (x,y ) f
(x, y )dxdy
−∞ −∞
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 4
+
Media de una Variable Aleatoria (cont.)
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria X es Si X y Y son discretas
µ X = E(X ) =∑ ∑ xf
y x
(x, y ) =
∑ xg (x)x
Si X y Y son continuas
µ X = E(X ) =+∞ +∞
∫ ∫ xf (x, y )dxdy
= ∫ xg (x)dx
−∞ −∞ −∞
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 5
+
Media de una Variable Aleatoria (cont.)
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La media o valor esperado de la variable aleatoria Y es Si X y Y son discretas
µY = E(Y ) = ∑ ∑ yf
y x
(x, y ) =
∑y
yh(y )
Si X y Y son continuas
µY = E(Y ) =
+∞ +∞
∫ ∫ yf (x, y )dxdy
= ∫ yh(y )dy
−∞ −∞ −∞
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 6
X
X
+
Varianza y Covarianza
Sea X una variable aleatoria con distribución de probabilidadf(x) y la media μ. La varianza de X es Si X es discreta
σ 2 = σ 2 = Var(X ) =
E[(X − µ )2 ]=∑ (x − µ
)2
f (x)
x
Si X es continua
σ 2 = σ 2 = Var(X ) =
E[(X − µ )2 ]=∫ (x − µ )2f (x)dx
−∞
La raíz cuadrada positiva de la varianza, σ, se llamadesviación estándar de X.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 7
Varianza y Covarianza (cont.)
La cantidad x – µ se llama desviación estándar de una observación respecto a su media.
Cuando estas desviaciones se elevan al cuadrado y después se promedian, σ2 será mucho menor para un conjunto de valores x que sean cercanos a µ, que para un conjunto de valores que varíe de forma considerable de µ.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 8
abilidad y Estadística
X
X
Varianza y Covarianza (cont.)
Teorema. La varianza de una variable aleatoria X es
σ 2 = σ 2 = Var(X ) =
E (X2 )− µ 2
Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales).
σ 2 = σ 2= Var(X ) = ∑ (x − µ
)2
x
f (x)
σ 2 = ∑ (x2 − 2µx + µ 2 ) f (x)x
σ 2 = ∑ x2 f (x) − 2µ ∑ xf (x) + µ 2
∑f (x)
xµ = ∑ xf (x) y
x x x
∑ f (x) = 1x
σ 2
UCR-ECCI CI-1352 Probσ 2
= ∑ x2 f (x) − 2µ 2 +
µ 2
x
= E (X 2 )− µ 2
= ∑ x 2 f (x) − µ 2
x
Esperanza Matemática 9
g ( X
2
( ) g ( X g ( X
Varianza y Covarianza (cont.)
Teorema. Sea X una variable aleatoria con distribución de probabilidad f(x). La varianza de la variable aleatoria g(X) es Si X es discreta
σ 2
g ( X )= Var[g (X )] =
E[(g (X ) − µ )2 ]= ∑ (g (x) − µ g ( X
) )x
f (x)
Si X es continua
σ 2 = Var[g (X )] =
g X
E[(g (X ) − µ )2 ]= ∫+∞(g (x) − µ )2
f (x)dx
−∞
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 10
Varianza y Covarianza (cont.)
Sean X y Y variables aleatorias con distribución de probabilidad conjunta f(x,y). La covarianza de X y Y es Si X y Y son discretas
σ XY = cov(X ,Y ) =
E[(X − µ X)(Y − µY )] =∑ ∑ (x − µ
Xy x
)(y − µY ) f
(x, y )
Si X y Y son continuas+∞ +∞
σ XY = cov(X , Y ) =
E[(X − µ X)(Y − µY )] = ∫ ∫ (x − µ X)(y − µY ) f
(x, y )dxdy
−∞ −∞
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 11
Varianza y Covarianza (cont.)
La covarianza de dos variables aleatorias es una medida de la naturaleza de la asociación entre las dos.
La covarianza sólo describe la relación lineal entre dos variables aleatorias. Describe la naturaleza de la relación.
Si la covarianza es positiva significa que X y Y son linealmente ascendentes (valores grandes de X estarán relacionados con valores grandes de Y, y valores pequeños de X estarán relacionados con valores pequeños de Y).
Si la covarianza es negativa significa que X y Y son linealmente descendentes (valores grandes de X estarán relacionados con valores pequeños de Y, y viceversa).
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 12
Varianza y Covarianza (cont.)
Cuando X y Y son estadísticamente independientes la covarianza es cero. Lo opuesto, sin embargo, por lo general no es cierto. Dos variables pueden tener covarianza cero e incluso así no ser estadísticamente independientes.
Una covarianza entre X y Y es cero, quizá indica que X y Y no tiene una relación lineal, pero no que sean independientes.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 13
CI-1352 Probabilidad y Estadística
Varianza y Covarianza (cont.)
Teorema. La covarianza de dos variables aleatorias X y Y con medias μX y μY, respectivamente, está dada por
σ XY = cov(X , Y ) =
E(XY ) − µ X µY
Prueba. Caso discreto (el caso continuo es igual, pero en vez de sumatorias son integrales).
σ XY
σ XY
σ XY
= cov(X , Y ) = ∑ ∑ (x − µ X )(y − µY ) f (x, y )x y
= ∑ ∑ (xy − µ X y − µY x + µ X µY ) f (x, y )x y
= ∑ ∑ xyf (x, y ) − µ X ∑ ∑ yf (x, y ) − µY ∑ ∑ xf (x, y ) + µ X µY ∑ ∑ f (x, y )x y x y x y x y
µ X = ∑ xf (x, y
),x
µY = ∑ yf (x, y ) yy
∑ ∑ f (x, y ) = 1x y
UCR- ECCI
σ XY
σ XY
=
E(X
Y )
− µ X µY
= E(XY ) − µ X
µY
− µ X µY+ µ X µY
Esperanza Matemática 14
Varianza y Covarianza (cont.)
Sean X y Y variables aleatorias con covarianza σXY ydesviación estándar σX y σY, respectivamente. El coeficiente decorrelación X y Y es
ρ =σ XY
XYσ X σ Y
El coeficiente de correlación satisface la desigualdad
-1 ≤ ρXY ≤ 1
El coeficiente de correlación describe la fuerza de la relación.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 15
babilidad y Estadística
) +
+ +
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias
Teorema. Si a y b son constantes, entonces
E(aX ± b) = aE(X) ± b
Corolario. Al hacer a = 0, se ve que E(b) = ±b
Corolario. Al hacer b = 0, se ve que E(aX) = aE(X)
Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
+∞E(aX ± b) =∫−∞
(ax ± b) f (x)dx
E(aX+∞
± b = a ∫ xf (x)dx ± b∫ f (x)dx
E(X ) =−∞
∫ xf (x)dx
−∞
y ∫ f (x)dx = 1UCR-ECCI CI-1352 Pro
E(aX−∞ −∞
± b) = aE(X ) ± bEsperanza Matemática 16
+
+∞
+
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias
Teorema. El valor esperado de la suma o diferencia de dos o más funciones de una variable aleatoria X, es la suma o diferencia de los valores esperados de las funciones. Es decir,
E[g(X) ± h(X)] = E[g(X)] ± E[h(X)]
Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
E(g (x) ± h(x)) =
∫ (g (x) ± h(x)) f (x)dx
E(g (x) ± h(x)) =
−∞
∫ g (x) f (x)dx ±
∫h(x) f (x)dx
E(g (x) ± h(x)) =
−∞ −∞E(g (x)) ± E(h(x))
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 17
ECCI CI-1352 Probabilidad y Estadística nza Matemática
+ +
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)
Teorema. El valor esperado de la suma o diferencia de dos o más funciones de las variables aleatorias X y Y, es la suma o diferencia de los valores esperados de las funciones. Es decir,
E[g(X,Y) ± h(X,Y)] = E[g(X,Y)] ± E[h(X,Y)]
Corolario. Al hacer g(X,Y) = g(X) y h(X,Y) = h(Y), se ve queE[g(X) ± h(Y)] = E[g(X)] ± E[h(Y)]
Corolario. Al hacer g(X,Y) = X y h(X,Y) = Y, se ve que
E(X ± Y) = E(X) ± E(Y)
E(g (x, y ) ± h(x, y )) = ∫∫
(g (x, y ) ± h(x, y )) f (x, y )dxdy
−∞ −∞
+∞ +∞ +∞ +∞E(g (x, y ) ± h(x, y )) = ∫
∫g (x, y ) f (x, y )dxdy ± ∫∫ h(x, y ) f (x, y )dxdy
UCR- Espera
−∞ −∞
E(g (x, y ) ± h(x, y )) = E(g (x, y )) ± E(h(x,
y ))
−∞ −∞
+ +
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)
Teorema. Sean X y Y dos variables aleatorias independientes.Entonces E(XY) = E(X)E(Y)
Prueba. Caso continuo (el caso discreto es igual, pero en vez de integrales son sumatorias).
E(XY ) =+∞ +∞
∫ ∫ xyf (x, y )dxdy−∞ −∞
f (x, y ) = g (x)h(y )
E(XY ) =+∞ +∞
∫ ∫ xyg (x)h(y )dxdy
E(XY ) =−∞ −∞
∫ xg (x)dx∫ yh(y )dy
E(XY ) =−∞ −∞
E(X )E(Y )UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 19
-ECCI CI-1352 Probabilidad y Estadística
σ
σ
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)
Teorema. Si a y b son constantes, entonces
σ2aX + b = a2σ2
X = a2σ2
Corolario. Al hacer a = 1, se ve que σ2X + b = σ2
X = σ2
Corolario. Al hacer b = 0, se ve que σ2aX = a2σ2
X = a2σ2
Prueba.2aX +b = E[(aX + b −
µaX +b )2 ]
µaX +b = E(aX + b) =aE(X ) +
b
= aµ X + b
2aX +b = E{[(aX+ b) − (aµ X + b)]2 }= E[(aX
X
+ b − aµ X − b)2 ]σ
UCR
2aX +b = E[(aX − aµ X)
2 ]= a 2 E[(X− µ X)2 ]= a 2 σ 2
Esperanza Matemática 20
σ
σ
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)
Teorema. Si X y Y son variables aleatorias con distribución de probabilidad conjunta f(x,y), entonces
σ2aX + bY = a2σ2
X + b2σ2Y + 2abσXY
Teorema. Si X y Y son variables aleatorias con distribución de probabilidad conjunta f(x,y), entonces
σ2aX – bY = a2σ2
X + b2σ2Y – 2abσXY
Prueba.2aX +bY = E[(aX + bY − µaX +bY )2 ]
µaX +bY = E(aX + bY ) = aE(X ) + bE(Y ) = aµ X
+ bµY
2aX +bY = E{[(aX+ bY ) − (aµ
X
+ bµY)]2 }= E[(aX+ bY − aµ X − bµY)2 ]
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 21
σ 2aX +bY = E{[a(X− µ X) +
b(Y− µY )]2 }= a 2
E[(X
− µ X)2 ]+ b2 E[(Y− µY)2 ]+ 2abE[(X − µ X)(Y − µY )]
2 2 2 2 2σ aX +bY = a σ X + b σ Y+ 2abσ XY
Medias y Varianzas de Combinaciones Linealesde Variables Aleatorias (cont.)
Corolario. Si X y Y son variables aleatorias independientes, entonces σ2
aX + bY = a2σ2X + b2σ2
Y
Corolario. Si X y Y son variables aleatorias independientes, entonces σ2
aX – bY = a2σ2X + b2σ2
Y
Corolario. Si X1, X2, …, Xn son variables aleatorias independientes, entonces
σ2a1X1 + a2X2 + … + anXn = a2
1σ2X1 + a2
2σ2X2 + … + a2
nσ2Xn
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 22
Teorema de Chebyshev
Si una V.A. tiene una varianza o desviación estándar pequeña, se esperaría que la mayoría de los valores se agruparan alrededor de la media. Ver las figuras de las filminas 24 y 25.
El matemático ruso P.L. Chebyshev descubrió que la fracción del área entre cualesquiera dos valores simétricos alrededor de la media está relacionada con la desviación estándar.
Como el área bajo una curva de distribución de probabilidad, o en un histograma de probabilidad, suma 1, el área entre cualesquiera dos números es la probabilidad de que la V.A. tome un valor entre estos números.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 23
Teorema de Chebyshev (cont.)
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 24
Teorema de Chebyshev (cont.)
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 25
Teorema de Chebyshev (cont.)
La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones estándar de la media es al menos 1 – 1/k2. Es decir,
P(µ − kσ < X < µ + kσ ) ≥ 1 −1
k 2
Este teorema tiene validez para cualquier distribución deobservaciones y, por esta razón, los resultados por lo general son débiles.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 26
Teorema de Chebyshev (cont.)
El valor que el teorema proporciona es sólo un límite inferior; es decir, la probabilidad de una variable aleatoria caiga dentro de dos desviaciones estándar de la media no puede ser menor a 1 – 1/k2.
Sólo cuando se conoce la distribución de probabilidad, se puede determinar probabilidades exactas.
Por esta razón el teorema se conoce por el nombre dedistribución libre.
El uso de este teorema se relega a situaciones donde se desconoce la forma de la distribución.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 27
Referencias Bibliográficas
Walpole, R.E.; Myers, R.H.; Myers, S.L. & Ye, K. “Probabilidad y estadística para ingeniería y ciencias”. Octava Edición. Pearson Prentice-Hall. México, 2007.
UCR-ECCI CI-1352 Probabilidad y EstadísticaEsperanza Matemática 28