Definition [1]:

22
1 Wahrscheinlichkeitsrechnung Definition [1]: eine endliche Menge und sei p eine Abbildung von S in die po en Zahlen 0 : S p einen Teilmenge ES von S sei p definiert als E s s p E p ) ( ) ( (S,p) heißt ein Wahrscheinlichkeitsraum, wenn p(S) = 1. Die endliche Menge S heißt der Ereignisraum (sample space). Die Funktion p heißt die Wahrscheinlichkeitsverteilung. Eine Teilmenge E heißt eine Ereignis (event). Enthält E genau ein Element der Menge S, so sprechen wir von einem Elementarereignis .

description

Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen. Für einen Teilmenge E  S von S sei p definiert als. (a) (S,p) heißt ein Wahrscheinlichkeitsraum , wenn p(S) = 1. (b) Die endliche Menge S heißt der Ereignisraum (sample space). - PowerPoint PPT Presentation

Transcript of Definition [1]:

Page 1: Definition [1]:

1Wahrscheinlichkeitsrechnung

Definition [1]:

Sei S eine endliche Menge und sei p eine Abbildung von S in die positivenreellen Zahlen

0: SpFür einen Teilmenge ES von S sei p definiert als

Es

spEp )()(

(a) (S,p) heißt ein Wahrscheinlichkeitsraum, wenn p(S) = 1.

(b) Die endliche Menge S heißt der Ereignisraum (sample space).

(c) Die Funktion p heißt die Wahrscheinlichkeitsverteilung.

(d) Eine Teilmenge E heißt eine Ereignis (event).

(d) Enthält E genau ein Element der Menge S, so sprechen wir von einem Elementarereignis .

Page 2: Definition [1]:

2Wahrscheinlichkeitsrechnung

Beispiel [1]:

Wir betrachten das Beispiel Münzwurf. Nach der Landung der Münze sehen wir entweder die eine Seite der Münze (K = Kopf) oder die andereSeite (Z = Zahl).

dann gilt:

Falls es sich bei der Münze um eine faire Münze handelt, erscheinenKopf und Zahl mit der gleichen Wahrscheinlichkeit ½. Definieren wir p als

},{ ZKS

2

1)()( ZpKp

1)()()( ZpKpSp

Somit ist (S, p) ein Wahrscheinlichkeitsraum mit Ereignisraum S = { K, Z } und Wahrscheinlichkeitsverteilung p.

Page 3: Definition [1]:

3Wahrscheinlichkeitsrechnung

Beispiel [2]:

Wir betrachten nun einen Würfel. Nach der Landung des Würfels sehen wir auf der Oberseite des Würfels 1, 2, 3, 4, 5 oder 6 Punkte.

dann gilt:

Falls es sich um einen fairen Würfel handelt, erscheint jede der sechs Zahlen mit der gleichen WSK 1/6. Definieren wir also p als

}6,5,4,3,2,1{S

6

1)6()5()4()3()2()1( pppppp

16

1*6)()(

6

1

i

ipSp

Somit ist (S, p) ein Wahrscheinlichkeitsraum mit Ereignisraum S = {1,2,3,4,5,6} und Wahrscheinlichkeitsverteilung p.

Page 4: Definition [1]:

4Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeit eines Ereignisses E ist also die Summe der WSKen der in E enthaltenen Elementarereignisse. Dies kann wie folgtinterpretiert werden.

Wahrscheinlichkeit von Ereignissen ES:

Betrachten wir eine Teilmenge ES von S, d.h., ein Ereignis, so folgt aus der Definition des Ereignisraums bzw. der Wahrscheinlichkeitsver-teilung p, dass gilt:

Es

spEp )()(

Das Ereignis E tritt dann auf, wenn das Resultat des zufälligen Prozesses ein in E enthaltenes Elementarereignis ist. Beispiel Würfeln:

Das Ereignis E tritt dann auf, wenn der Wurf eine 1 oder eine 6 liefert.Dies geschieht mit WSK 2/6.

6

2)6()1()( ppEp}6,1{E

Page 5: Definition [1]:

5Wahrscheinlichkeitsrechnung

Wie viele verschiedene Elementarereignisse (Folgen von Ks und Zs der Länge n) gibt es?

Beispiel [3]:

Wir werfen eine faire Münze n mal. Das Resultat von n Würfen ist eineFolge der Länge n der folgenden Form:

nZKS },{

Jedes Elementarereignis e S tritt mit der gleichen WSK auf:

Es gilt dann:

nep

2

1)(

nS 2#

ZZKZKKKZZKKKZKZK ....

12

12)()(

n

n

Se

epSp

Page 6: Definition [1]:

6Wahrscheinlichkeitsrechnung

Mittels Zufallsvariablen kann man zum Beispiel jedem Elementarereignis eKosten zuordnen, die durch das zufällige „Auftreten“ von e verursacht werden. Im folgenden werden wir oft Zufallsvariablen betrachten, dererKosten den „Laufzeiten“ von Algorithmen (mit einer Zufallskomponente)entsprechen.

Definition [2]:

ereignisse e eine relle Zahl zuordnet, heißt Zufallsvariable.

SX :Gegeben ein WSKraum (S, p). Eine Funktion, die jedem Elementar-

Für ein vorgegebenes x betrachten wir häufig die Menge

})(|{ xeXSe aller Elementarereignisse, die durch die Zufallsvariable X auf x abgebildetwerden:

}{ xX Als Kurzschreibweise für diese Menge verwenden wir

Page 7: Definition [1]:

7Wahrscheinlichkeitsrechnung

Definition [3]:

Repräsentiert die Zufallsvariable X eine Art Kostenfunktion, so kann derErwartungswert als die (mittleren) zu erwartenden Kosten interpretiert werden. Siehe folgendes Beispiel:

babaeX )),((

36

1)),(( baep

Wir werfen zweimal hintereinander mit einem Würfel. Die Elementar-ereignisse sind Paare (a,b) mit a,b { 1,2,3,4,5,6 }. Die „Kosten“ X(e) eines Elementarereignisses e = (a,b) sind gleich der Summe a+b der Augenzahlen.

)()(][ eXepXESe

Gegeben ein WSKraum (S, p) und eine Zufallsvariable X:SR. Der Erwartungswert der Zufallsvariablen X ist definiert als:

Page 8: Definition [1]:

8Wahrscheinlichkeitsrechnung

)()(][ eXepXESe

SeSe

eXeX )(36

1)(

36

1

6

1

6

1

)(36

1

a b

ba

6

1

6

1

6

1

)216(36

1)6(

36

1

aa b

aba

712

7*12

36

21*12

X(e) = a + b = k 2 3 4 5 6 7 8 9 10 11 12

prob({X=k}) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

Man beachte:

)(

*})({)()(][SXkSe

kkXpeXepXE

Page 9: Definition [1]:

9Wahrscheinlichkeitsrechnung

Beispiel [4]: Wir werfen eine faire Münze n mal hintereinander.

Die Zufallsvariable X ordnet einen Elementarereignis e S = { K,Z }n die Anzahl der Würfe mit Resultat Kopf in e zu.

})({ kXp n

k

n

2

kk

nXE n

n

k

2][

0

1

1

k

nn

k

nk

nn

k

nk

n

21

1

1

nn

k

nk

n

2

11

0

1

0

12

n

k

n

k

nn 122 nnn

2

n

Wie groß ist die WSK, dass man k Köpfe in einer Folge von n Würfenerhält, und welchen Wert hat der Erwartungswert E[X] von X?

Page 10: Definition [1]:

10Wahrscheinlichkeitsrechnung

Satz[1]:

Seien X und Y Zufallsvariablen über dem gleichen Ereignisraum S, dann gilt:

][][][ YEXEYXE

Se

eYXepYXE ))()((][

Beweis:

Se

eYeXep ))()()((

SeSe

eYepeXep )()()()( ][][ YEXE

Beispiel [5]: 2 Würfe mit einem Würfel

X = X1 + X2 E[X] = E[X1 + X2] = E[X1] + E[X2] = 3.5 + 3.5 = 7

X: S R bildet ein EE auf die Augensumme ab.

X1: S R bildet ein EE auf die Augenzahl des ersten Wurfes ab.

X2: S R bildet ein EE auf die Augenzahl des zweiten Wurfes ab.

Page 11: Definition [1]:

11Wahrscheinlichkeitsrechnung

Beispiel [6]: n Würfe mit einer fairen Münze: S = { K,Z }n.

0

1iX

falls i-ter Wurf Kopf ist

falls i-ter Wurf Zahl istE[Xi] = 1/2

X = X1 + X2 + .... + Xn E[X] = n/2

Page 12: Definition [1]:

12Wahrscheinlichkeitsrechnung

Vorsicht: Im allgemeinen ist E[XY] E[X]E[Y]. Es gibt jedoch Ausnahmen:

Se

eXYepXYE ))()((][

Beweis:

Definition [4]:Zwei Zufallsvariablen X und Y über dem gleichen Ereignisraum heißen unabhängig, wenn für alle x, y gilt:

})({*})({}){}({ yYpxXpyYxXp

Satz [2]:

Wenn X und Y unabhängig sind, dann gilt: E[XY] = E[X]E[Y].

Rz

zzXYp })({

Rz zxyyx

xyyYxXp }){}({;,

yx

xyyYxXp,

}){}({

Page 13: Definition [1]:

13Wahrscheinlichkeitsrechnung

yx

xyyYprobxXprob,

})({*})({

x y

yyYprobxxXprob })({})({

][][ YEXE

Page 14: Definition [1]:

14Wahrscheinlichkeitsrechnung

Die bedingte WSK p(A|B) ist die WSK, dass ein Elementarereignis e Aeintritt, unter der Annahme, dass die Hypothese B wahr ist, d.h., dass das eintretende Elementarereignis e mit Sicherheit ein Elementarereignis von B ist.

Definition [5]:Seien A und B Ereignisse mit p(B) 0. Wir definieren die bedingte Wahrscheinlichkeit P(A|B) von A unter der Bedingung (Hypothese) B als

)(

)()|(

Bp

BApBAp

Ist der Durchschnitt A B der Ereignisse A und B leer, so ist p(A|B) = 0.

Ist B in A enthalten, so ist p(A|B) = 1.

Beispiel [7]: Ein Wurf mit einem Würfel. A = { 1,2,3 } und B = { 3, 4, 5 }.

3

1

})5,4,3({

)3()|( p

pBAp

Page 15: Definition [1]:

15Wahrscheinlichkeitsrechnung

Beweis:

Satz [3] (Bayes‘sche Regel):

Seien A und B Ereignisse (Ereignismengen) mit den folgenden Eigen-schaften:

0)( Ap 0)( CBp 0)( Bp

)|()()|()(

)|()()|(

CC BApBpBApBp

BApBpABp

)(

)()()|()(

Bp

BApBpBApBp

)( BAp und

)()()|()()|()( CCC BApBApBApBpBApBp )(Ap

Bezeichnung [1]: Sei AS ein Ereignis. Mit AC bezeichnen wir das komplementäre Ereignis.

}|{\ AeSeASAC

Dann gilt:

Page 16: Definition [1]:

16Wahrscheinlichkeitsrechnung

Beispiel [8]:Gegeben eine faire Münze und eine gefälschte Münze, die immer Kopf zeigt.

Wir wählen eine der beiden Münzen mit Wahrscheinlichkeit ½ und werfen diese Münze zweimal.

A = zwei Köpfe beobachtet B = gefälschte Münze gewählt

2

1)( Bp)|()()|()()( CC BApBpBApBpAp

1)|( BAp4

1)|( CBAp

8

5

4

1

2

1

2

1)( Ap

)|()()|()(

)|()()|(

CC BApBpBApBp

BApBpABp

4/12/112/1

12/1

5

4

Page 17: Definition [1]:

17Wahrscheinlichkeitsrechnung

Definition [6]:Sei X eine Zufallsvariable. Dann heißt Var[X]:=E[(X-E[X])2] die Varianzvon X. Die positive Wurzel der Varianz heißt Standardabweichung und wird mit bezeichnet.

Beispiel [9]: n Würfe mit einer fairen Münze.

Xi = 1, falls der i-te Wurf gleich K(opf) ist, und 0 sonst.

22 )2

10(

2

1)

2

11(

2

1][ iXVar

4

1

Lemma [1]:

22 ])[(][][ XEXEXVar Beweis:

]])[(][2[]])[[( 222 XEXXEXEXEXE 22 ])[(][][2][ XEXEXEXE

22 ])[(][ XEXE

Page 18: Definition [1]:

18Wahrscheinlichkeitsrechnung

Satz [4]:Wenn X und Y unabhängig sind, dann ist Var[X+Y] = Var[X]+Var[Y].

Beweis:22 ])[(])[(][ YXEYXEYXVar

222 ])[][(]2[ YEXEYXYXE 2222 ])[(][][2])[(][][2][ YEYEXEXEYEXYEXE

][][2][2])[(][])[(][ 2222 YEXEXYEYEYEXEXE

][][2][][2])[(][])[(][ 2222 YEXEYEXEYEYEXEXE Satz[2]: X und Y unabhängig

][][ YVarXVar Lemma [1]

Beispiel: n Würfe mit einer fairen Münzen

Sei X = X1 + X2 + .... + Xn die Zahl der Köpfe.

Die Zufallsvariablen Xi sind unabhängig.

n

iiXVarXVar

1

][][

44

1

1

nn

i

Page 19: Definition [1]:

19Wahrscheinlichkeitsrechnung

Satz [5] (Markow Ungleichung):Sei X eine nicht-negative Zufallsvariable. Dann gilt für alle Konstanten t 1:

Beweis:t

XEtXp1

]})[({

Se

eXepXE )(*)(][

][)(,

)(*)(XtEeXSe

eXep

][)(,

][)(XtEeXSe

XEtep

][)(,

)(][XtEeXSe

epXEt

]})[({][ XEtXpXEt Bemerkung:

Die obige Abschätzung ist sehr schwach. Wenn man etwas über die Varianz weiß, dann kann man bessere Abschätzungen erhalten.

Page 20: Definition [1]:

20Wahrscheinlichkeitsrechnung

Satz [6] (Chebychev Ungleichung):

oder

2

][})|][({|

t

XVartXEXp

2

1})][|][({|

tXVartXEXp

Beweis:

]])[[(][ 2XEXEXVar )(])[()( 2 eXEXepSe

2])[)(()( XEeXepSe

2

|][)(|,

)( teptXEeXSe

tXEeXSe

ept|][)(|,

2 )(

})|][({|2 tXEXpt

Page 21: Definition [1]:

21Wahrscheinlichkeitsrechnung

Beispiel: n Würfe mit einer fairen Münzen

Für die Anzahl X der Köpfe gilt: E[X] = n/2 und Var[X] = n/4

Damit ist = (n/4)1/2 und daher gilt für t = 10:

100

1})5|

2({| n

nXprob

n

nn

nX 5

2,5

2

Daher ist X mit Wahrscheinlichkeit 1-(1/100) in dem folgenden Intervall:

Page 22: Definition [1]:

22Wahrscheinlichkeitsrechnung

Satz [7] (Chernoff Schranke):

Sei X die Anzahl der Köpfe in n Würfen einer fairen Münze und sei 0.

42

2})2

|2

({|n

enn

Xprob

Beweis: Buch von Motwani/Ragharan über Randomized Algorithms.

Beispiel: (n faire Münzen) Für = 10/(n)1/2 erhalten wir

252})5|2

({| enn

Xprob

Dann gilt:

Diese Abschätzung ist erheblich stärker als die Chebychef Schranke.