Est Ad is Tic A

36
INSTITUTO SUPERIOR TECNOLOGICO PÚBLICO “MARIO GUTIERREZ LOPEZ” CARRERA PROFESIONAL: MECANICA DE PRODUCCION ALUMNOS :CONTRERAS APLOLINARIO; Manuel : NINAHUANCA MARTINEZ; Omar : LLACUACHAQUI MEZA; DOCENTE : Lic. ELMER NICANOR MELO CLEMENTE SEMESTRE : II SECCION : TURNO : DIURNO 2011 - II 1 ESTADISTICA GENERAL

Transcript of Est Ad is Tic A

INSTITUTO SUPERIOR TECNOLOGICO PBLICO MARIO GUTIERREZ LOPEZ

CARRERA PROFESIONAL: MECANICA DE PRODUCCION

ESTADISTICA GENERAL

ALUMNOS

:CONTRERAS APLOLINARIO; Manuel : NINAHUANCA MARTINEZ; Omar : LLACUACHAQUI MEZA; : Lic. ELMER NICANOR MELO CLEMENTE : II : : DIURNO

DOCENTE SEMESTRE SECCION TURNO

2011 - II

1

INTRODUCCION A LA TEORIA DE PROBABILIDADES El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los eventos futuros. Es por ello que el estudio de probabilidades surge como una herramienta utilizada por los nobles para ganar en los juegos y pasatiempos de la poca. El desarrollo de estas herramientas fue asignado a los matemticos de la corte. Con el tiempo estas tcnicas matemticas se perfeccionaron y encontraron otros usos muy diferentes para la que fueron creadas. Actualmente se contino con el estudio de nuevas metodologas que permitan maximizar el uso de la computacin en el estudio de las probabilidades disminuyendo, de este modo, los mrgenes de error en los clculos. A travs de la historia se han desarrollado tres enfoques conceptuales diferentes para definir la probabilidad y determinar los valores de probabilidad: I. TEORA DE LA PROBABILIDAD

Experimentos aleatorios Cuando se realiza un experimento puede ser de dos clases: -Determinista: un experimento que siempre que se repita con las mismas condiciones iniciales se obtiene igual resultado. -Aleatorio: cuando al repetirse con las mismas condiciones iniciales, no se puede predecir el resultado. (Ejemplo: lanzar un dado extraer una carta). Los fenmenos o experimentos aleatorios son los que pueden dar lugar a varios resultados, sin que pueda ser previsible enunciar con certeza cul de estos va a ser observado en la realizacin del experimento a pesar de haberlo realizado en similares condiciones. A la coleccin de resultados que se obtiene en los experimentos aleatorios se le llama espacio muestral. Un experimento aleatorio es aquel del que no podemos predecir su resultado, es decir, que depende de la suerte o azar. Espacio muestral Espacio muestral es el conjunto formado por todos los resultados posibles de un experimento o fenmeno aleatorio. Lo denotamos con la letra . Ejemplo: lanzar una moneda, lanzar dos dados Ejemplo del espacio muestral El espacio muestral asociado al lanzamiento de dos dados y anotar la suma de los puntos obtenidos es: Tambin otro ejemplo sera el experimento de arrojar un dado y ver qu sale. En este caso, el espacio muestral es: 3. Sucesos Suceso de un fenmeno aleatorio es cada uno de los subconjuntos del espacio muestral . Para designar cualquier suceso, tambien llamado suceso aleatorio, de un experimento aleatorio utilizaremos letras maysculas. Al conjunto de todos los sucesos que ocurren en un experimento aleatorio se le llama espacio de sucesos y se designa por . Ejemplo En el ejemplo anterior, son subconjuntos de Salir mltiplo de 5: Salir nmero primo: Salir mayor o igual que 10: Analicemos los tipos ms frecuentes de sucesos. Sucesos elementales son los que estn formados por un solo resultado del experimento; es decir, estn formados por un slo elemento del espacio muestral, por ejemplo, al lanzar un dado que ocurra el suceso "sacar n 3" {3} Sucesos compuestos son los que estn formados por dos o ms resultados del experimento; es decir, por dos o ms sucesos elementales. Por ejemplo: "sacar nmero impar al lanzar un dado" {1, 3, 5} :

2

Suceso seguro es el que se verifica al realizar el experimento aleatorio. Est formado por todos los resultados posibles del experimento y, por tanto, coincide con el espacio muestral. Suceso imposible es aquel suceso que nunca se cumple cuando se realiza el experimento. Se representa por . CONCEPTO DE PROBABILIDAD La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teora de la probabilidad se usa extensamente en reas como la estadstica, la fsica, la matemtica, la ciencia y la filosofa para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecnica subyacente de sistemas complejos. El diccionario de la Real Academia Espaola define azar como una casualidad, un caso fortuito, y afirma que la expresin al azar significa sin orden.1 La idea de Probabilidad est ntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirm: "Es notable que una ciencia que comenz con consideraciones sobre juegos de azar haya llegado a el objeto ms importante del conocimiento humano". Comprender y estudiar el azar es indispensable, porque la probabilidad es un soporte necesario para tomar decisiones en cualquier mbito.2 Segn Amanda Dure, "Antes de la mitad del siglo XVII, trmino 'probable' (en latn probable) significaba aprobable, y se aplicaba en ese sentido, unvocamente, a la opinin y a la accin. Una accin u opinin probable era una que las personas sensatas emprenderan o mantendran, en las circunstancias."3 Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christian Huygens (1657) le dio el tratamiento cientfico conocido ms temprano al concepto. Ars Conjectandi (pstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemticas. Vase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemtica. La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea (pstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplic por primera vez la teora para la discusin de errores de observacin. La reimpresin (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos lmites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad. Pierre-Simn Laplace (1774) hizo el primer intento para deducir una regla para la combinacin de observaciones a partir de los principios de la teora de las probabilidades. Represent la ley de la probabilidad de error con una curva y = (x), siendo x cualquier error e y y su probabilidad, y expuso tres propiedades de esta curva: 1. es simtrica al eje y; 2. el eje x es una asntota, siendo la probabilidad del error igual a 0; 3. la superficie cerrada es 1, haciendo cierta la existencia de un error. Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781) una frmula para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del mximo producto de las probabilidades de un sistema de errores concurrentes. El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles mthodes pour la dtermination des orbites des comtes (Nuevos mtodos para la determinacin de las rbitas de los cometas). Ignorando la contribucin de Legendre, un escritor irlands estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error, siendo c y h constantes que dependen de la precisin de la observacin. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850). Gauss expuso la primera demostracin que parece que se conoci en Europa (la tercera despus de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La frmula de Peters (1856) para r, el error probable de una nica observacin, es bien conocida. En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent

3

(1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposicin de la teora. En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando teora de la medida. En la parte geomtrica (vase geometra integral) los colaboradores de The Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin). La probabilidad clsica: el enfoque clsico o a priori de la probabilidad se basa en la consideracin de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clsico, la probabilidad de que suceda un evento se calcula dividiendo el numero de resultados favorables, entre el numero de resultados posibles. TIPOS DE PROBABILIDAD LA PROBABILIDAD CLSICA La probabilidad clsica de un evento E, que denotaremos por P(E), se define como el nmero de eventos elementales que componen al evento E, entre el nmero de eventos elementales que componen el espacio muestral: Como frecuencia relativa 1 probabilstica: se basa en las frecuencias relativas. La probabilidad de que un evento ocurra a largo plazo se determina observando en que fraccin de tiempo sucedieron eventos semejantes en el psado. La probabilidad de que un evento suceda se calcula por medio de: P (E) numero de veces que el evento ocurri en el pasado Numero total de observaciones PROBABILIDAD FRECUENCIAL. La definicin frecuentista consiste en definir la probabilidad como el lmite cuando n tiende a infinito de la proporcin o frecuencia relativa del suceso. Sea un experimento aleatorio cuyo espacio muestral es E Sea A cualquier suceso perteneciente a E Si repetimos n veces el experimento en las mismas Condiciones, la frecuencia relativa del suceso A ser: Cuando el nmero n de repeticiones se hace muy grande la frecuencia relativa converge hacia un valor que llamaremos probabilidad del suceso A. Es imposible llegar a este lmite, ya que no podemos repetir el experimento un nmero infinito de veces, pero si podemos repetirlo muchas veces y observar como las frecuencias relativas tienden a estabilizarse Esta definicin frecuentista de la probabilidad se llama tambin probabilidad a posteriori ya que slo podemos dar la probabilidad de un suceso despus de repetir y observar un gran nmero de veces el experimento aleatorio correspondiente. Algunos autores las llaman probabilidades tericas. INTERPRETACIN SUBJETIVA DE PROBABILIDAD 1 La probabilidad subjetiva de un evento: se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carcter de subjetividad no se considera con validez cientfica, aunque en la vida diaria es de las ms comunes que se utilizan al no apoyarse ms que en el sentido comn y los conocimientos previos, y no en resultados estadsticos. 2 Concepto subjetivo de probabilidad: la posibilidad (probabilidad) de que suceda un evento, asignado por una persona con base en cualquier informacin de que disponga. 2.2 probabilidad de eventos Definicin 1 La probabilidad de un evento A es la suma de los pesos de todos los puntos muestrales en A por lo tanto 0 30 .np > 5 n(1-p) > 5 Poisson = = > 10

Teorema de Bayes En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A. En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados. Sea {A1,A3,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresin:

donde: P(Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hiptesis Ai. P(Ai | B) son las probabilidades a posteriori.

8

Thomas Bayes (1763) Frmula de Bayes Adems, unido a la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

Aplicaciones El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam que se adaptan con el uso.

Como observacin, se tiene Tipos de espacio muestral

y su demostracin resulta trivial

Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos. Discretos Son aquellos espacios donde el nmero de sucesos elementales es finito o infinito numerable. Espacio Probabilstico discreto Es aquel cuyo espacio muestral es discreto.Podemos diferenciar varios tipos de espacio probabilstico discreto: Espacio Probabilistico Discreto Equiprobable Su espacio muestral es finito de tamao n. La probabilidad de cualquier suceso elemental E es

, de aqu se deduce que para todo suceso A la probabilidad es Espacio Probabilistico Finito Su espacio muestral es discreto finito. Hay al menos 2 sucesos elementales que cumplen.

Procesos Estocasticos Finitos Y Diagramas de rbol

9

Un proceso estocstico es una sucesin finita de experimentos aleatorios, cada uno de ellos con un n finito de resultados posibles. Se representan con diagrama de rbol. Ejemplo Imaginemos que se lanzan una moneda y un dado La probabilidad de un camino es la multiplicacion de sus probabilidades.

La probabilidad de sacar una cara y un tres ser ----> La probabilidad de un suceso cualquiera es la suma de las probabilidades de los caminos La probabilidad de sacar impar ser ---->

Espacio Probabilistico Infinito Contable Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo

La probabilidad de que salga cara en la primera tirada ---->

La probabilidad de que salga cara en la segunda tirada ---->

La probabilidad de que salga cara en la tercera tirada ---->

Continuos Son aquellos espacios donde el nmero de sucesos elementales es infinito incontable. Espacio probabilstico continuo Espacio muestral infinito no numerable. -No es posible observar puntos concretos del espacio. Tiene sentido hablar de intervalos observados. - No es posible asignar probabilidad a un punto concreto, se asigna a intervalos. Por tanto la funcin P est definida sobre intervalos -----> P(Ki < Exp > Ke)

-Habitualmente cuando trabajamos con magnitudes fsicas. Particiones Es posible definir particiones sobre el espacio muestral. Formalmente hablando, una particin sobre se define como un conjunto numerable:

10

tal que: 1. 2. 3. Ejemplos Por ejemplo, en el caso del experimento aleatorio "lanzar un dado", el espacio muestral del experimento sera: ={1,2,3,4,5,6}. Por otro lado, si cambiamos ligeramente la experiencia pensando en el nmero resultante de la suma de 2 dados, entonces tenemos 2 espacios muestrales: ={(1,1),(1,2),(1,3),(1,4),(1,5),(1,6),(2,1),(2,2),...(6,6)} = {1,2,3,4,5,6}x{1,2,3,4,5,6} '={2,3,4,...,12}

La eleccin del espacio muestral es un factor determinante para realizar el clculo de la probabilidad de EJERCICIOS RESUELTOS 1. Una empresa que debe decidir si adquiere un determinado paquete de acciones, solicita un informe a tres asesores financieros para que se pronu ncien de forma favorable o desfavorable a la compra. Por experiencias anteriores en operaciones similares, se sabe que los tres asesores tienen actitudes ante el riesgo diferente e independiente. Esta situacin se refleja en las probabilidades de aconsejar a compra de este tipo de operaciones que son respectivamen te 0.8, 0.5 y 0.3 Con esta informacin a priori calcule: a) b) La probabil idad de que al menos uno de ellos aconseje la compra. La probabil idad de que ninguno de ellos aconseje adquirir el paquete de acciones.

SOLUCIN:

Se definen los siguientes sucesos: A= El asesor A aconseja la compra B=El asesor B aconseja la compra C=El asesor C aconseja la compra

Cuyas probabilidades son: P(A)= 0.8 P(B)= 0.5 P(C)=0.3

11

a) Con las definiciones anteriores, A B C representa el suceso al menos uno de los tres aconseja la compra, cuya probabilidad se calcula utilizando:

P(A B C)= P(A)+P(B)+P(C)-P(A B)-P(A C)-P(B C)+P(A B C) Como los sucesos son mutuamente independientes, estas probabilidades son: P(A B)=P(A) P(B)=0.4 P(A C)=P(A) P(C)=0.24 P(B C)=P(B) P(C)=0.15 P(A B C)=P(A) P(B) P(C)=0.12 Sustituyendo tenemos: estas cantidades,

P(A B C)=0.08+0.5+0.3-0.4-0.240.15+0.12=0.93 b) En este caso debemos calcular:

2. Sabiendo que P AI B) 0,6 y que la de la P(A I B =0,2), se pide calcular la probabilidad de A.

SOLUCIN:

P(A)= P[(A I B)U ( AI B )]= P(A I B) P( AI B )=0,6+0,2=0,8

3. Supongamos que las cotizaciones de las acciones de Telefnica y Sniace son vari ables aleatorias independientes, y que la proba bilidad de que un da cualquiera suban es del 70% para ambas. Cul es la proba bilidad de que un da suba slo una de ellas?

SOLUCIN:

Sea p1 la probabilidad de que suba Telefnica y p2 la de que suba Sniace. La probabilidad de que solo suba una de ellas ser: p1 (1 - p2) + (1 p1) p2 = 0,7 0,3 + 0,3 0,7 = 0,21 + 0,21 = 0,42

4. Sean 2 sucesos A y B de los que se sabe que la probabilidad de B es el doble que la de A;

12

que la probabilidad de su unin es doble que la de su interseccin; y que la probabil idad de su interseccin es de 0,1. Se pide: 1) Calcular la probabili dad de A. 2) Qu suceso es ms probable que ocurra sabiendo que ya ha ocurrido el otro?.

SOLUCIN: 1) Sea P(A) = x; entonces: P(B)= 2X. Adems P[A U B] 0,2 y P[A I B] 0,1 P[A U B] P(A)+P(B)- P AI B) =x+2x-0,1=3x-0,1 P[A U B] 3x 0,1=0,2. despejando x=1 Por tanto P(A) = 0,1 y P(B) = 0,2. 2) Las probabilidades condicionadas seran: P( A

P(A/B)=

I B)

0,1

0,5;

P(B/A)=

P( A

I B)

0,1

1

P(B)

0,2

P( A)

0,1

Por tanto es ms probable que ocurra B sabiendo que ha ocurrido A, que, que ocurra A sabiendo que ha ocurrido B.

5. La probabilidad de cara de dos monedas son 0,4 y 0,7. Calcular la probabilidad de que al lanzar las dos monedas salga slo una cara. Repetir el ejercicio consi derando que las monedas estn bien construidas.

SOLUCIN: Para que salga solo una cara ha de ocurrir una de las dos cosas siguientes: que la primera moneda saque cara y la segunda cruz o viceversa: P[(C I X ) U ( X I C )] = 0,4 0,3 0,6 0,7 0,12 + 0,42 = 0,54 Si las monedas estn bien construidas las probabilidades de cara y cruz son iguales a 0,5; por tanto: P[(C I X ) U ( X I C )] = 0,5 0,5 0,5 0,5 0,5 EJERCICIOS PROPUESTOS 1. Dos maquinas A y B han producido respectiv amente, 100 y 200 piezas. Se sabe que A produce un 5% de piezas defectuosas y B un 6%. Se toma una pieza y se pide: A) Probabilidad de que sea defectuosa. B) Sabiendo que es defectuosa, probabil idad de que proceda de la primera mquina.

13

2. Sea la urna U (2B, 3N, 4R). Extraemos tres bolas, una a continuacin de la otra. La primera es negra, la segunda no se mira y la tercera es blanca. Hallar la probabilidad de que la segunda sea roja. 3. El portero titular de un equipo de ftbol para 8 de cada 10 penaltis, mientras que el suplente solo para 5. el portero suplente juega, por termino medio, 15 minutos en cada partido (90 minutos). a) Si en un partido se lanzan tres penaltis contra este equipo, cul es la probabilidad de que se paren los tres? b) Si se lanza un penalti y no se para cul es la probabilidad de que estuviera jugando el portero titular?

4. En un colegio hay dos grupos de 25 alumnos de quinto curso y dos grupos de 20 alumnos de sexto curso. El 50 % de los alumnos de quinto no tienen faltas de ortografa, porcentaje que sube a 70% en los alumnos de sexto. En un concurso de redaccin ent re alumnos de quinto y sexto se elige una redaccin al azar. a) Qu probabilidad hay de que sea de un alumno de quinto? b) Si tiene faltas de ortografa, qu probabilidad hay de que sea de un alumno de quinto?

5. Dados lo sucesos A y B tales que P( A) y P( 0 A P( B P(B) )1 . A P( A)

B

) 0 , demustrese que

14

II.

DISTRIBUCIN DE PROBABILIDAD Distribucin de probabilidad discretas

PROBLEMA En los servicios de salud, una de las interrogantes mas comunes son: Cuantos pacientes vendrn hoy a una hora determinada? Cul es la probabilidad de atender partos mltiples en un mes dado? Cul es la probabilidad de que un medicamento sea eficaz en un tratamiento dado? Todas estas interrogantes pueden ser contestadas en su mayora, haciendo uso de las distribuciones de probabilidades. En este caso de las discretas (Binomial y Poisson) Cuando se habla de los tipos de probabilidad, decimos que esta se clasifica en tres: 1. Probabilidad clsica. 2. Probabilidad distribucin de frecuencias. 3. Probabilidad subjetiva. La distribucin de probabilidades esta muy relacionado con el tipo de variables. Nosotros conocemos dos tipos de variables: a. Variable discreta, y b. Variable contina. En este trabajo, estudiaremos las principales distribuciones de variables discretas. Una distribucin de probabilidades para una variable aleatoria discreta es un listado mutuamente excluyente de todos los resultados numricos posibles para esa variable aleatoria tal que una probabilidad especfica de ocurrencia se asocia con cada resultado. El valor esperado de una variable aleatoria discreta es un promedio ponderado de todos los posibles resultados, donde las ponderaciones son las probabilidades asociadas con cada uno de los resultados.

= E ( X ) = XiP ( Xi )i =1

N

Donde: Xi = i-simo resultado de X, la variable discreta de inters. P(Xi) = probabilidad de ocurrencia del i-simo resultado de X La varianza de una variable aleatoria discreta (2) se define como el promedio ponderado de los cuadros de las diferencias entre cada resultado posible y su media (los pesos son las probabilidades de los resultados posibles). N 2 2

= [ Xi E ( X )] P( Xi )i =1

Donde: Xi = i-simo resultado de X, la variable discreta de inters. P(Xi) = probabilidad de ocurrencia del i-simo resultado de X Las distribuciones de probabilidades discretas ms importantes son: 1. Distribucin Binomial, y 2. Distribucin de Poisson Hablaremos de cada tipo de distribucin y como lo resolveremos aplicando el Excel. DISTRIBUCION BINOMIAL La distribucin binomial es una distribucin de probabilidades que surge al cumplirse cinco condiciones: 1. Existe una serie de N ensayos, 2. En cada ensayo hay slo dos posibles resultados, 3. En cada ensayo, los dos resultados posibles son mutuamente excluyentes, 4. Los resultados de cada ensayo son independientes entre si, y 5. La probabilidad de cada resultado posible en cualquier ensayo es la misma de un ensayo a otro. Cuando se cumple estas condiciones, la distribucin binomial proporciona cada resultado posible de los N ensayos y la probabilidad de obtener cada uno de estos resultados. Para este tipo de distribucin de probabilidad, la funcin matemtica es la siguiente:

P( X ) =

n! p X (1 p ) n X X !(n X )!

Donde: P(X) = probabilidad de X xitos dados los parmetros n y p

n = tamao de la muestra p = probabilidad de xito 1 p = probabilidad de fracaso X = numero de xitos en la muestra ( X = 0, 1, 2, .. n) El trmino

p X (1 p ) n X

indica la probabilidad de obtener X xitos de n observaciones en una

secuencia especfica. En trmino observaciones son posibles.

n! X !(n X )!

indica cuantas combinaciones de los X xitos entre n

Entonces dado el nmero de observaciones n y la probabilidad de xito p, la probabilidad de X xitos es: P(X) = (numero de de secuencia posibles) x (probabilidad de un secuencia especifica) Por eso que llegamos a la funcin matemtica que representa esta distribucin. Veamos un ejemplo: Supngase que en cierta poblacin el 52 por ciento de todos los nacimientos que se registraron son varones. Si aleatoriamente se escogen cinco registros de nacimientos dentro de esa poblacin, cul es la probabilidad de que exactamente tres de ellos pertenezcan a varones? Tenemos los siguientes datos: N=5 X=3 p = 0.52

Este problema los solucionamos con el Excel. Vamos a insertar funcin:

Escogemos en Seleccionar una categora, a las Estadsticas. Y dentro de las estadsticas, escogemos a la DISTR.BINOM. Ingresamos la informacin del problema y listo. P(X=3) = 0.3239

DISTRIBUCION DE POISSON

Se dice que existe un proceso de Poisson si podemos observar eventos discretos en un rea de oportunidad un intervalo continuo (de tiempo, longitud, superficie, etc.) de tal manera que si se reduce lo suficiente el rea de oportunidad o el intervalo, 1. La probabilidad de observar exactamente un xito en el intervalo es constante. 2. La probabilidad de obtener ms de un xito en el intervalo es 0. 3. La probabilidad de observar un xito en cualquier intervalo es estadsticamente independiente de la de cualquier otro intervalo. Esta distribucin se aplica en situaciones como: El numero de pacientes que llegan al servicio de emergencia de un hospital en un intervalo de tiempo. El numero de radiaciones radiactivas que se recibe en un lapso de tiempo, El numero de glbulos blancos que se cuentan en una muestra dada. El numero de partos triples por ao Su utilidad en el rea de la salud es muy amplia. La expresin matemtica para la distribucin de Poisson para obtener X xitos, dado que se esperan xitos es: X

P( X ) =

e

X!

Donde: P(X) = probabilidad de X xitos dado el valor de = esperanza del nmero de xitos. e = constante matemtica, con valor aproximado 2.711828 X = nmero de xitos por unidad La distribucin de Poisson se considera una buena aproximacin a la distribucin binomial, en el caso que np < 5 y p < 0.1 n > 100 y p < 0.05 y en ese caso = np. El interes por sustituir la distribucin Binomial por una distribucin de Poisson se debe a que esta ultima depende unicamente de un solo parmetro, , y la binomial de dos, n y p. Veamos un ejemplo: Si en promedio, llegan tres pacientes por minuto al servicio de emergencia del hospital del Nio durante la hora del almuerzo. Cul es la probabilidad de que en un minuto dado, lleguen exactamente dos pacientes? Y Cul es la probabilidad de que lleguen ms de dos pacientes en un minuto dado? Datos: = 3 pacientes por minuto

P(X=2) = ? Para resolver esto utilizamos al Excel. De las funciones estadsticas, seleccionamos la funcin POISSON.

Ingresamos la informacin que tenemos: y listo, tenemos el resultado: P(X=2) = 0.2240

Para resolver la segunda parte del problema P(X>2) = ? Con el Excel encontraremos P(X 2) y hacemos el siguiente clculo: P(X > 2 ) = 1 - P(X 2) Utilizando nuevamente el Excel:

Entonces: P(X>2) = 1 0.4232 = 0.5768 PROBLEMAS RESUELTOS 1 Haciendo uso de la tabla que proporciona reas a la izquierda de cada valor z de la distribucin normal tipificada, calcular las probabilidades (reas) siguientes : a) Pr(z2'1) d) Pr(z>-1) e) Pr(-1'39-1) Pr(z>-1'00) = 1 - 0'15866 = 0'84134

e)

Pr(-1'39-1'61) e) Pr(-2'061'01) = 0'5 - 0'34375 = 0'15625

d)

Pr(z>-1'61) Pr(z