Les leçons de mathématiques à l’oral du CAPES (session 2018) · Définition 1.6(Vocabulaire...

490
CAPES Les leçons de mathématiques à l’oral du CAPES (session 2018) Clément B OULONNE

Transcript of Les leçons de mathématiques à l’oral du CAPES (session 2018) · Définition 1.6(Vocabulaire...

  • CAPE

    S

    Les leçons demathématiques à l’oral

    du CAPES (session 2018)

    Clément BOULONNEhttp://cbmaths.fr

    http://cbmaths.fr

  • 2

  • LES LEÇONS DEMATHÉMATIQUES À L’ORAL

    DU CAPES (SESSION 2018)

    Recueil compilé par Clément BOULONNE

    Session 2018Ce document est sous licence Creative Commons 3.0 France:

    — paternité— pas d’utilisation commerciale— partage des conditions initiales à l’identique

    http://creativecommons.org/licenses/by-nc-sa/3.0/deed.fr

    http://creativecommons.org/licenses/by-nc-sa/3.0/deed.fr

  • 4

  • Liste des leçons

    Avertissement

    L’ensemble de l’épreuve s’inscrit dans le cadre des programmes de mathématiques du collège et des différentes sériesdu lycée général et technologique. La capacité du candidat à illustrer le sujet par des exemples sera valorisée.

    1 Probabilités 9

    2 Variables aléatoires discrètes 17

    3 Loi binomiale 25

    4 Variables aléatoires réelles à densité 35

    5 Représentation et interprétation de données. Outils statistiques 47

    6 Intervalles de fluctuation, intervalles de confiance. Applications 59

    7 Arithmétique des nombres entiers 69

    8 Forme trigonométrique d’un nombre complexe. Applications 91

    9 Trigonométrie. Applications 101

    10 Géométrie vectorielle dans le plan et dans l’espace 115

    11 Repérage dans le plan, dans l’espace, sur une sphère 133

    12 Droites dans le plan. Droites et plans dans l’espace 149

    13 Transformations du plan. Frises et pavages 165

    14 Relations métriques et angulaires dans le triangle 179

    15 Solides de l’espace et volumes 193

    16 Périmètres, aires, volumes 205

    17 Produit scalaire 223

    18 Proportionnalité et géométrie 233

    19 Problèmes de constructions géométriques 249

    20 Problèmes d’alignement, de parallélisme ou d’intersection 261

    21 Proportionnalité et linéarité. Applications 273

    22 Systèmes d’équations et systèmes d’inéquations. Exemples de résolution 281

    23 Problèmes conduisant à une modélisation par des équations ou des inéquations 289

    24 Résolution de problèmes à l’aide de graphes orientés ou non orientés 301

    25 Problèmes conduisant à une modélisation par des matrices 311

    26 Exemples d’algorithmes 323

  • 6 LISTE DES LEÇONS

    27 Différents types de raisonnement en mathématiques 333

    28 Applications des mathématiques à d’autres disciplines 341

    29 Fonctions polynômes du second degré. Équations et inéquations du second degré. Applications 349

    30 Suites numériques. Limites 363

    31 Problèmes conduisant à une modélisation par des suites 387

    32 Limite d’une fonction réelle de variable réelle 399

    33 Théorème des valeurs intermédiaires. Applications 409

    34 Nombre dérivé. Fonction dérivée. Applications 415

    35 Fonctions exponentielle et logarithme. Applications 429

    36 Intégrales, primitives 453

    37 Exemples de calculs d’intégrales (méthodes exactes ou approchées) 465

    38 Problèmes conduisant à une modélisation par des fonctions 475

  • Préface

    Chères lectrices, chers lecteurs,

    Vous vous apprêtez à lire une nouvelle version du polycopié « Les leçons de mathématiques à l’oral du CAPES »avec toutes les leçons requises pour la session 2018.

    Tout d’abord, voici ce que le jury attend de vous pour la première épreuve d’admission (option maths) du CAPESde mathématiques (session 2018) :

    « Le candidat choisit un sujet, parmi deux qu’il tire au sort. La liste des sujets dépend de l’option choisie par lecandidat, mathématiques ou informatique.

    L’épreuve commence par l’exposé du plan (vingt minutes), suivi du développement par le candidat d’une partiede ce plan choisie par le jury puis d’un entretien (échange sur les points précédents). »

    Je vous propose dans ce polycopié, pour chaque leçon à travailler, une proposition de plan et le contenu du plan.Bien entendu, lors des vingt minutes où il faudra exposer le plan, il n’est pas question de marquer les démonstrationsou développement d’exemples (ceci étant réservé dans la deuxième partie « Développement d’une partie du plan »).

    Les développements à faire au cours de la deuxième partie seront précisés par le symbole ♦.

    Les leçons de ce polycopié sont tantôt des leçons inédites, tantôt des leçons qui proviennent de la version 2013du polycopié. La différence entre 2013 et 2018, c’est que le niveau maximum requis est le niveau Lycée alors que,en 2013, on pouvait aller jusqu’en BTS. Bien entendu, si vous voulez montrer que vous avez de fortes connaissancesdans la matière, vous pouvez faire quelques compléments niveau BTS (furtivement en fin de présentation de plan).Attention, bien entendu, à bien maîtriser les compétences requises pour développer les compléments.

    Pour terminer, je veux remercier G. ESCANDELL et M. CUDEL qui m’ont envoyé un rapport d’erreurs de mon poly-copié, K. NOUR qui m’a envoyé une proposition d’amélioration de la leçon 27 : « Différents types de raisonnement enmathématiques » (que j’intégrerais dans la version 2019). Je remercie aussi (d’avance) les futurs lectrices et lecteursqui prendont le temps de me proposer un rapport d’erreurs (typographiques et mathématiques) de mon polycopié.Grâce à vous, le polycopie évolue positivement.

    Je vous souhaite bonne lecture et bonnes révisions.

    Clément BOULONNE : http://cbmaths.fr/

    http://cbmaths.fr/

  • 8 LISTE DES LEÇONS

  • Leçon n° 1

    Expérience aléatoire, probabilité,probabilité conditionnelle

    NIVEAU LycéePRÉREQUIS théorie des ensembles

    RÉFÉRENCES [1], [2]

    1.1 Expérience aléatoire, événements

    1.1.1 Expérience aléatoire

    Définition 1.1 On dit qu’on fait une expérience de type aléatoire si on ne peut pas prévoir le résultat final de cetteexpérience.

    Exemples 1.2 1. On lance une pièce et on observe le côté exposé (pile ou face). Il y a deux issues possibles surcette expérience.

    2. On dispose d’une urne avec 100 boules, on tire une d’entre elles et on note le numéro. Cette expérience aléa-toire a 100 issues possibles.

    Définition 1.3 (Univers). L’ensemble de toutes les issues d’une expérience aléatoire est appelé univers. On notegénéralement cet ensembleΩ.

    Remarque 1.4 Dans cette leçon, on se limitera au cas oùΩ est un ensemble fini.

    Exemple 1.5 On reprend les expériences de l’exemple 1.2

    1. Si on lance une pièce de monnaie, on obtientΩ= {P,F }.2. Si on tire une boule numérotée dans une urne où il en contient 100 alorsΩ= {1,2, . . . ,100}.

    1.1.2 Evénement associé à une expérience aléatoire

    Dans ce qui suit, nous allons décrire ce qu’est un événement :

    Définition 1.6 (Vocabulaire des évènements). — Un événement élémentaire (qu’on note ω) est ce qui consti-tue l’une des issue de la situation étudiée (un élément deΩ).

    — Un événement est un ensemble de plusieurs issues.— L’événement « A et B » (qu’on note A∩B) est l’événement constitué des issues communes aux deux événe-

    ments.— L’événement « A ou B » (qu’on note A ∪B) est l’événement constitué de toutes les issues des deux événe-

    ments.— Deux événements incompatibles A et B (qu’on note A ∩B = ;) sont deux événements qui n’ont pas d’élé-

  • 10 LEÇON N°1 • PROBABILITÉS

    ments en commun.— L’événement est dit contraire de A (qu’on note A) si A et A sont incompatibles et A∪ A forme la totalité des

    issues.

    Exemples 1.7 On lance deux dés équilibrés. On calcule la somme des numéros qui apparaissent sur la face du dessusdes deux dés.

    1. Obtenir un 7 est un événement élémentaire : ω= {7}.2. Obtenir un nombre pair est un événement :

    A = {2,4,6,8,10,12} .

    3. Obtenir un multiple de trois est un événement :

    B = {3,6,9,12} .

    4. A∩B = {6,12}.5. A∪B = {2,3,4,6,8,9,10,12}.6. Si C = {10,11,12} et D = {2,3,4,5,6} alors C ∩D =; donc C et D sont incompatibles.7. Ici, A représente l’événement « obtenir une somme impaire ». Ainsi, A représnte l’événement « obtenir une

    somme paire » et en plus :— A∩ A =;.— A∪ A =Ω.

    1.2 Probabilité

    1.2.1 Loi de probabilités sur un universΩ

    Définition 1.8 Soit Ω l’univers d’une expérience aléatoire. Définir une loi de probabilité P sur Ω, c’est associer, àchaque événement élémentaire ωi , des nombres pi ∈ [0 ,1] tels que :∑

    ipi = 1.

    On appelle les nombres pi , les probabilités (qu’on peut noter pi = P (ωi )).

    PROPOSITION 1.9 (PRINCIPE FONDAMENTAL). La probabilité P (E) d’un événement E est la somme des probabilitésdes événements élémentaires qui le composent.

    Corollaire 1.10 P (Ω) = 1.

    Remarque 1.11 Dans le corollaire 1.10, on sous-entend qu’il y a n (n ∈N) événements élémentaires dansΩ et on faitl’hypothèse d’équiprobabilité (voir définition 1.15).

    ♦ Démonstration du corollaire 1.10.

    P (Ω) = P(⋃

    iωi

    )=∑

    iP (ωi ) =

    ∑i

    1

    n= 1.

    Exercice 1.12 On se donne les probabilités d’apparition des faces d’un dé truqué :

    Issue ω 1 2 3 4 5 6Probabilités P (ω) 0,05 0,05 0,1 0,1 0,2 inconnue

    1. Calculer la probabilité de l’événement A = « obtenir un résultat inférieur ou égal à 4 ».2. Calculer la probabilité d’obtenir un 6.

  • 1.2 Probabilité 11

    ♦ Solutions de l’exercice 1.12. 1. On veut calculer la probabilité de l’événement A = « obtenir un résultat infé-rieur ou égal à 4 ». D’après le principe :

    P (A) = P (1)+P (2)+P (3)+P (4) = 0,05+0,05+0,1+0,1 = 0,3.2. On veut calculer la probabilité d’obtenir un 6. Le corollaire 1.10 nous donne :

    P (1)+P (2)+P (3)+P (4)+P (5)+P (6) = 1donc P (6) = 0,5.

    Définition 1.13 [Autre définition] Soit Ω un unique et A = P (Ω) l’ensemble des parties de Ω (c’est-à-dire l’en-semble de tous les événements associé à cette expérience aléatoire). On appelle probabilité P toute application deP (Ω) dans R+ qui vérifie :

    1. P (Ω) = 12. Soit (Ai )i∈I avec I ⊂N une famille d’événements de P (Ω) deux à deux disjoints (si i 6= j alors Ai ∩ A j =;)

    alors :

    P

    (⋃i∈I

    Ai

    )= ∑

    i∈IP (Ai ).

    1.2.2 Propriétés de calcul des probabilités

    PROPRIÉTÉS 1.14 Soient A,B ⊂Ω. Alors :1. P (;) = 0.2. P (A) = 1−P (A).3. P (A \ B) = P (A)−P (A∩B).4. A ⊂ B ⇒ P (A) ≤ P (B).5. P (A∪B) = P (A)+P (B)−P (A∩B).

    Démonstration. ♦

    1. On applique 2 de la définition 1.13 à A et ; (ils sont disjoints car A∩;=;) d’où :P (A∪;) = P (A)+P (;) ⇔ P (A) = P (A)+P (;)

    et donc on en déduit que P (;) =;.2. Comme A∩ A =; et A∪ A =;, on a :

    P (A∪ A) = P (A)+P (A) ⇔ P (Ω) = P (A)+P (A).Or P (Ω) = P (A∪ A) = 1, d’où P (A) = 1−P (A).

    3. On a : A = (A \ B)∪ (A∩B), de plus (A \ B) et A∩B sont disjoints donc on peut appliquer la définition :P (A) = P (A \ B)+P (A∩B).

    4. A ⊂ B implique que B = (B ∩ A)∪ A. Cette réunion d’ensembles est en plus disjointe donc :P (B) = P (A)+P (B ∩ A).

    Comme P (B ∩ A) ≥ 0, P (A) ≤ P (B).5. On a :

    A∪B = (A \ B)∪ (A∩B)∪ (B \ A).Les ensembles présents dans la réunion sont deux à deux disjoints donc :

    P (A∪B) = P (A \ B)+P (A∩B)+P (B \ B)= P (A)−P (A∩B)+P (A∩B)+P (B)−P (A∩B)= P (A)+P (B)−P (A∩B).

  • 12 LEÇON N°1 • PROBABILITÉS

    1.2.3 Équiprobabilité

    Définition 1.15 (Équiprobabilité). Si tous les éléments de Ω (l’univers d’une expérience aléatoire) ont la mêmepropriété d’apparition alorsΩ est dit équiprobable. SiΩ= {a1, . . . , an} alors :

    P ({ai }) = 1n

    , pour tout 1 ≤ i ≤ n.

    PROPRIÉTÉ 1.16 SiΩ est équiprobable, la probabilité d’un événement A ⊂Ω contenant nA éléments est :

    P (A) = 1n+ 1

    n+·· ·+ 1

    n︸ ︷︷ ︸nA fois

    = nAn

    = card(A)card(Ω)

    .

    Exercice 1.17 On lance un dé (non truqué), ainsiΩ= {1,2,3,4,5,6}. On est dans le cas d’une équiprobabilité.1. Calculer la probabilité d’obtenir un 5.

    2. Calculer la probabilité d’obtenir un nombre pair.

    ♦ Solutions de l’exercice 1.17. 1. La probabilité d’avoir un 5 est P (5) = 16 ({5} étant un événement élémentaire).2. Comme l’événement « obtenir un nombre pair » est l’ensemble T = {2,4,6}. On a : card(T ) = 3, d’où :

    P (T ) = 36= 1

    2.

    1.3 Probabilité conditionnelle

    1.3.1 Un exemple pour débuter

    Exemple 1.18 On considère une population de 500 individus parmi lesquels il y a 180 femmes et 90 des 500 individusont l’allèle du daltonisme. On choisit un individu au hasard dans cette population (c’est une expérience aléatoire).On note :

    F = « l’individu choisi est une femme »D = « l’individu choisi possède l’allèle du daltonisme »

    ♦ L’universΩ est l’ensemble des individus, il est équiprobable. Chaque individu a la même probabilité d’être choisi,cette probabilité est égale à 1500 . Donc :

    P (D) = card(D)card(Ω)

    = 90500

    = 0,18.

    Maintenant, on se restreint à la sous-population des femmes. On sait que 9 femmes possèdent l’allèle du daltonisme.L’universΩ′ est l’ensemble des femmes F . Il est équiprobable. Chaque femme a une chance sur 180 d’être choisie.

    On cherche la probabilité qu’une femme choisi au hasard possède l’allèle du daltonisme :

    card(D ∩F )card(Ω′)

    = 9180

    = 0,05.

    On note cette probabilité :

    PF (D) = card(D ∩F )card(F )

    = P (D ∩F )P (F )

    .

    1.3.2 Probabilité conditionnelle

    Définition 1.19 Soit F un événement de probabilité strictement positive (c’est-à-dire F ⊂Ω et P (F ) > 0). On appelle

  • 1.3 Probabilité conditionnelle 13

    probabilité conditionnelle à F , l’application PF : P (Ω) → [0 ,1] telle que :

    PF : P (Ω) → [0 ,1]A 7→ PF (A) = P (A∩F )

    P (F ).

    PROPOSITION 1.20 L’application PF est une probabilité.

    ♦ Démonstration de la proposition 1.20. On vérifie que PF prend ses valeurs dans [0,1]. Si A∩F ⊂ F alors P (A∩F ) ≤P (F ) et ainsi :

    P (A∩F )P (F )

    = PF (A) ≤ 1

    et PF (A) ≥ 0 comme quotient de deux probabilités. On vérifie le point 1 de la définition 1.13 :

    PF (Ω) = P (Ω∩F )P (F )

    = P (F )P (F )

    = 1.

    On vérifie ensuite le point 2 de la définition 1.13. Soit (Ai )i∈I une famille d’événements dansΩ deux à deux disjoints.

    PF

    (⋂i∈I

    Ai

    )= P ((

    ⋃i∈I Ai )∩F )P (F )

    = P (⋃

    i∈I (Ai ∩F ))P (F )

    .

    Mais Ai ∩F ⊂ Ai donc tous les (Ai ∩F ) sont deux à deux disjoints et :

    PF

    (⋂i∈I

    Ai

    )=

    ∑i∈I P (Ai ∩F )

    P (F )= ∑

    i∈I

    P (Ai ∩F )P (F )

    = ∑i∈I

    PF (Ai ).

    PROPRIÉTÉ 1.21 (PROBABILITÉS COMPOSÉES). SoitΩ un univers, F et A deux événements tel que P (F ) > 0. Alors,

    P (A∩F ) = PF (A)×P (F ) = P A(F )×P (A).

    1.3.3 Formule des probabilités totales et de Bayes

    PROPRIÉTÉ 1.22 (FORMULE DES PROBABILITÉS TOTALES). Soit {E1,E2, . . . ,En} une partition deΩ d’événements nonvides. Soit A ⊂Ω. Alors :

    P (A) =n∑

    i=1PEi (A)×P (Ei ).

    Exemple 1.23 On considère deux urnes U1 et U2. L’urne U1 contient 6 boules rouges et 4 boules vertes et l’urne U2contient 7 boules vertes et 3 boules rouges. On lance un dé. S’il indique le chiffre 1, on choisit l’urne U1 sinon onchoisit l’urne U2. On effectue ensuite deux tirages avec remise. On cherche la probabilité d’avoir tiré deux rouges entout.

    ♦ On note :

    R = {rouge au 1er tirage} , R ′ = {rouge au 2e tirage} ,H1 = {choix de l’urne U1} , H2 = H 1 = {choix de l’urne U2} .

    On a ainsi :

    PH1 (R) =6

    10= 3

    5, PH1 (R ∩R ′) =

    (3

    5

    )2PH2 (R) =

    3

    10, PH2 (R ∩R ′) =

    (3

    10

    )2.

  • 14 LEÇON N°1 • PROBABILITÉS

    La forme de conditionnement donne :

    P (R) = PH1 (R)P (H1)+PH2 (R)P (H2)= 1

    6× 3

    5+ 5

    6× 3

    10= 1

    10+ 1

    4= 4+10

    40= 7

    20

    et

    P (R ∩R ′) = PH1 (R ∩R ′)P (H1)+PH2 (R ∩R ′)P (H2)

    = 16×

    (3

    5

    )2+ 5

    6

    (3

    10

    )2= 27

    200.

    PROPRIÉTÉ 1.24 (FORMULE DE BAYES). Soit {E1,E2, . . . ,En} une partition d’événements non vides deΩ. Soit A ⊂Ω.Alors :

    P A(Ei ) =PEi (A)×P (Ei )∑n

    i=1 PEi (A)×P (Ei ).

    Exemple 1.25 Un test sanguin a une probabilité de 0,95 de détecter un certain virus lorsque celui-ci est effecti-vement présent. Il donne néanmoins un faux résultat positif pour 1% des personnes non infectées. On cherche laprobabilité que la personne ait le virus sachant qu’elle est positif (et on sait que 0,5% de la population est porteusedu virus).

    ♦ On note :

    V = {la personne testée a le virus} ,T = {la personne testée a un test positif} .

    On cherche PT (V ). Or, on sait que :

    P (V ) = 0,005, PV (T ) = 0,95, PV (T ) = 0,01.

    On en déduit par la formule de Bayes,

    PT (V ) = P (T ∩V )P (T )

    = PV (T )P (V )PV (T )P (V )+PV (T )P (V )

    = 0,95×0,0050,95×0,005+0,01×0,995 ≈ 0,323.

    1.3.4 Indépendance

    Définition 1.26 (Indépendance de deux événements). Deux événements E et F sont indépendants si :

    P (E ∩F ) = P (E)×P (F ).

    Remarque 1.27 D’après la propriété des probabilités composées, P (E) = PF (E) (si P (F ) > 0). Ce résultat correspondà l’idée intuitive que si E et F sont indépendants alors la réalisation de F n’apporte pas d’information sur E .

    Exemple 1.28 On jette deux fois le même dé. Les événements

    A = {obtention d’un chiffre pair au premier lancer} ,B = {obtention du 1 au deuxième lancer} ,

    sont indépendants.♦ En effet, en prenant Ω= {1,2,3,4,5,6}2 et si on fait l’hypothèse d’équiprobabilité dans Ω (P équiprobable), on

    vérifie que :

    P (A) = 3×636

    = 12

    , P (B) = 6×136

    = 16

    .

    P (A∩B) = 3×136

    = 112

    , P (A)P (B) = 12× 1

    6= 1

    12.

  • 1.3 Probabilité conditionnelle 15

    1.3.5 Un exercice pour finir

    Exercice 1.29 Dans une urne sont placés 100 jetons rouges, dont 50 portent le numéro 0 et 50 portent le numéro 1.On ajoute dans cette urne 30 jetons verts numérotés 0.

    Combien de jetons verts numérotés 1 faut-il rajouter dans l’urne pour que les événements A : « le jeton est rouge »et B « le jeton est numéroté 0 » soient indépendants lors d’un tirage au hasard d’un jeton de cette urne?

    ♦ Solutions de l’exercice 1.29. Soit x le nombre de jetons verts numérotés 1 qu’il faut rajouter dans l’urne. On peutdresser un tableau à double entrée pour obtenir le nombre de jetons de chaque catégorie.

    Jetons no 0 no 1Rouges 50 50Verts 30 x

    On veut trouver la valeur de x telle que les événements A : « le jeton est rouge » et B « le jeton est numéroté 0 » soientindépendants lors d’un tirage au hasard d’un jeton de cette urne. On a ainsi :

    P (A∩B) = P (A)P (B) ⇔ 50130+x =

    100

    130+x ×50+x

    130+x ⇔ 50(130+x)2 = (130+x)(100(50+x)) (∗)

    130+x 6= 0 car x ≥ 0 donc :

    (∗) ⇔ 50(130+x) = 5000+100x ⇔ 6500+50x = 5000+100x ⇔ 50x = 1500 ⇔ x = 150050

    = 30.

    Il faut donc rajouter 30 jetons verts numérotés 1 pour que les les événements A : « le jeton est rouge » et B « le jetonest numéroté 0 » soient indépendants lors d’un tirage au hasard d’un jeton de cette urne.

    Références pour la leçon no 1

    [1] G. COSTANTINI. Probabilité (discrètes). Cours de Première S, http://bacamaths.net.

    [2] P. RIBEREAU. Cours 5 Probabilités : Notion, probas conditionnelles et indépendance.

    http://bacamaths.net

  • 16 LEÇON N°1 • PROBABILITÉS

  • Leçon n° 2

    Variables aléatoires discrètes

    NIVEAU Terminale SPRÉREQUIS probabilités

    RÉFÉRENCES [3], [4], [5]

    2.1 Loi de probabilités. Fonction de répartition

    Dans cette leçon, les variables aléatoires considérées seront discrètes (c’est-à-dire l’ensemble X (Ω) des valeursprises par X est fini ou dénombrable).

    Soit (Ω,F ,P ) un espace probabilisé modélisant une certaine expérience aléatoire. On se place dans le cas oùΩ est discret et dans ce cas on supposera que la tribu F des événements est égale à l’ensemble P (Ω) de tous lessous-ensembles deΩ.

    Définition 2.1 (Variable aléatoire discrète). On appelle variable aléatoire discrète définie sur Ω toute applicationX :Ω→R telle que :

    1. L’ensemble X (Ω) = {xi , i ∈ D} (avec D = {1,2, . . . , N } si X (Ω) est fini, et D =N∗ si X (Ω) est dénombrable) desvaleurs prises par X est fini ou dénombrable.

    2. Pour tout xi ∈ X (Ω), on a :[X = xi ] := {ω ∈Ω, X (ω) = xi } ∈F

    (c’est-à-dire l’ensemble [X = xi ] est un événement). On dit que c’est l’événement « X prend la valeur xi ».

    Exemple 2.2 On lance trois fois une pièce non truqué et on compte le nombre de fois où on obtient « Face ». Ondéfinit ainsi une variable aléatoire X : Ω→R avec :

    Ω= {PPP,PPF,PF P,F PP,PF F,F PF,F F P,F F F }

    etX (PPP ) = 0, X (PPF ) = 1, X (PF P ) = 1, X (F PP ) = 1X (F F P ) = 2, X (F PF ) = 2, X (PF F ) = 2, X (F F F ) = 3.

    Définition 2.3 (Loi de probabilité). Soit P une probabilité sur un univers Ω. Soit X une variable aléatoire définiesurΩ telle que X (Ω) soit fini de cardinal n. Lorsqu’à chaque valeur xi (1 ≤ i ≤ n) de X on associe les probabilités pide l’événement « X = xi », on dit que l’on définit une loi de probabilité PX de la variable aléatoire X .

    Exemple 2.4 Dans l’exemple précédent, on a équiprobabilité deΩ (la probabilité d’obtenir un des événements élé-mentaires étant de 18 ). La probabilité d’obtenir 2 fois le côté face de la pièce est de :

    PX (2) = P (X = 2) = 38

    .

  • 18 LEÇON N°2 • VARIABLES ALÉATOIRES DISCRÈTES

    Définition 2.5 (Fonction de répartition). La fonction de répartition de la variable aléatoire X est la fonction F telleque :

    F : R → [0 ,1]x 7→ F (x) = P (X ≤ x) .

    PROPRIÉTÉ 2.6 La fonction de répartition est toujours une fonction croissante et bornée par 0 et 1.

    Exemple 2.7 Avec l’exemple précédent, on a :— Pour x ∈ ]−∞ ,0[, on a :

    F (x) = 0— Pour x ∈ ]0 ,1], on a :

    F (x) = 18

    — Pour x ∈ ]1 ,2], on a :F (x) = 1

    8+ 3

    8= 1

    2

    — Pour x ∈ ]2 ,3], on a :F (x) = 1

    8+ 3

    8+ 3

    8= 7

    8

    — Pour x ∈ ]3 ,4], on a :F (x) = 1

    8+ 3

    8+ 3

    8+ 1

    8= 1.

    Voici la représentation graphique :

    0, 5

    0, 75

    y

    −3 −2 −1 1 2 3

    x[

    [

    [

    [

    2.2 Espérance mathématique

    Définition 2.8 (Espérance mathématique). Soient Ω l’univers correspondant à une expérience aléatoire, P uneprobabilité sur Ω et X une variable aléatoire sur Ω telle que X (Ω) soit fini a. On note {x1, . . . , xn} l’ensemble X (Ω)(c’est-à-dire l’ensemble des valeurs prises par X . L’espérance mathématique de la variable aléatoire X est le nombré,noté E(X ), défini par :

    E(X ) =n∑

    i=1pi xi = p1x1 +p2x2 +·· ·+pn xn

    où pi = P (X = xi ).a. Si X (Ω) est infini dénombrable, l’espérance existe encore sous réserve de la convergence (absolue) de la série de terme général xn pn .

    Remarque 2.9 L’espérance est la moyenne des valeurs xi pondérées par les probabilités pi .

    Exemple 2.10 On reprend l’exemple de la pièce de monnaie. On a :

    E(X ) = 18×0+ 3

    8×1+ 3

    8×2+ 1

    8×3 = 3

    2.

  • 2.3 Variance et écart-type 19

    Remarque 2.11 On pourrait aussi calculer l’espérance E(X ) en revenant aux événements élémentaires de l’universΩau lieu d’utiliser les valeurs xi de la variable aléatoire X :

    E(X ) = ∑ω∈Ω

    P (ω)X (ω).

    Exemple 2.12 (Suite à la remarque 2.11). Sur l’exemple précédent, comme P (ω) = 18 , cela donnerait :

    E(X ) = 18

    ∑ω∈Ω

    X (ω)

    = 18

    [X (PPP )+X (PPF )+X (PF P )+X (F PP )

    +X (PF F )+X (F PF )+X (F F P )+X (F F F )]

    = 18

    (0+1+1+2+1+2+2+3) = 32

    .

    THÉORÈME 2.13 (LINÉARITÉ DE L’ESPÉRANCE). Soient X et Y deux variables aléatoires définies sur le même universΩ de cardinal fini. Soit P une probabilité surΩ. On a :

    E(X +Y ) = E(X )+E(Y ).

    En particulier, si b est un réel :E(X +b) = E(X )+b

    et pour tout réel k,E(k X ) = kE(X ).

    ♦ Démonstration du théorème 2.13. On a :

    E(X +Y ) = ∑ω∈Ω

    (X +Y )(ω)P (ω)

    = ∑ω∈Ω

    X (ω)P (ω)+ ∑ω∈Ω

    Y (ω)P (ω) = E(X )+E(Y ).

    En prenant Y constante égale à b, on obtient :

    E(X +b) = E(X )+E(b) = E(X )+b.

    De plus,

    E(k X ) =n∑

    i=1kpi xi = k

    n∑i=1

    pi xi = kE(X ).

    2.3 Variance et écart-type

    Définition 2.14 (Variance et écart-type). SoientΩ l’univers correspondant à une expérience aléatoire, P une pro-babilité sur Ω et X une variable aléatoire sur Ω telle que X (Ω) soit fini. On note {x1, . . . , xn} l’ensemble X (Ω) (c’est-à-dire l’ensemble des valeurs prises par X ).

    — La variance de la variable aléatoire X est le nombre, notée Var(X ), défini par :

    Var(X ) = E((X −E(X ))2) =n∑

    i=1pi (xi −E(X ))2

    = p1(x1 −E(X ))2 +·· ·+pn(xn −E(X ))2.

  • 20 LEÇON N°2 • VARIABLES ALÉATOIRES DISCRÈTES

    — L’écart-type de la variable aléatoire X est le nombre, noté σ(X ) défini par :

    σ(X ) =√

    Var(X ).

    Remarques 2.15 1. La variance est la moyenne des carrés des écarts à la moyenne.

    2. La variance est une quantité positive, donc l’écart-type est bien défini.

    Exemple 2.16 Sur le problème du comptage du côté face, on calcule la variance de X :

    Var(X ) = 18

    (0− 3

    8

    )2+ 3

    8

    (1− 3

    2

    )2+ 3

    8

    (2− 3

    2

    )2+ 1

    8

    (3− 3

    2

    )2= 3

    4.

    D’où :

    σ(X ) =√

    Var(X ) =√

    3

    4=

    p3

    2.

    Exemple 2.17 Montrer que l’espérance E(X ) minimise la fonction f définie par R par :

    f (x) =n∑

    i=1pi (xi −x)2

    mais pas la fonction g définie par :

    g (x) =n∑

    i=1pi |xi −x| .

    ♦ Réponse à l’exercice 2.17. La fonction f est dérivable comme somme de fonctions dérivables et on a, pour toutx ∈R :

    f ′(x) =−2n∑

    i=1pi (xi −x) =−2

    n∑i=1

    pi xi −2xn∑

    i=1pi =−2(E(X )−x).

    On en déduit :f ′(x) ≥ 0 ⇔ x ≥ E(X ).

    Donc f admet un minimum en E(X ) (et ce minimum est f (E(X )) = Var(X ). L’espérance est donc la quantité qui mi-nimise la moyenne des carrés des écarts. Par contre, elle ne minimise ps la moyenne des écarts. En effet, on considèrela variable aléatoire X définie par la loi suivante :

    xi 0 1000pi 0,9 0,1

    On a :E(X ) = p1x1 +p2x2 = 1000

    g (E(X )) = p1 |x1 −1000|+p2 |x2 −1000| = 90+90 = 180.Or :

    g (0) = E(X ) = 100.Donc : g (0) < g (E(X )). Conclusion : E(X ) ne minimise pas la fonction g et on peut montrer que la médiane est ceminimum.

    THÉORÈME 2.18 (FORMULE DE KOENIG). La variance d’une variable aléatoire X peut se calculer avec la relationsuivante :

    Var(X ) = E(X 2)− [E(X )]2.La variance est l’écart entre la moyenne des carrés et le carré de la moyenne.

    ♦ Démonstration de la formule de Koeing. On rappelle que l’espérance d’une variable aléatoire constante X = b estégale à la constante b. D’après la linéarité de l’espérance :

    Var(X ) = E((X −E(X ))2) = E(X 2 −2X E(X )+E(X )2)= E(X 2)−2E(X )E(X )+E(X )2E(1)

    D’où Var(X ) = E(X 2)− [E(X )]2.

  • 2.4 Exemples de variables aléatoires discrètes 21

    Exemple 2.19 On reprend l’exemple de la pièce de monnaie lancée trois fois de suite. On rappelle que X est lenombre de « face » obtenu. On a déjà calculé E(X ), on calcule E(X 2) :

    E(X 2) = 18×02 + 3

    8×12 + 3

    8×22 + 1

    8×32 = 3.

    D’où :

    Var(X ) = E(X 2)− [E(X )]2 = 3− 94= 3

    4.

    Corollaire 2.20 (Effet d’un changement affine sur la variance et l’écart-type). Soit X une variable aléatoire. Soienta et b deux réels. On :

    Var(aX +b) = a2 Var(X ) et σ(aX +b) = |a|σ(X ).En particulier :

    Var(aX ) = a2 Var(X ) et σ(aX ) = |a|σ(X )et

    Var(X +b) = Var(X ) et σ(X +b) =σ(X ).

    ♦ Démonstration du corollaire 2.20. D’après la formule de Koeing, on a :

    Var(aX +b) = E(a2X 2 +2abX +b2)− [E(aX +b)]2

    et d’après la linéarité de l’espérance,

    Var(aX +b) = a2E(X 2)+2abE(X )+b2 − [aE(X )+b]2= a2E(X 2)+2abE(X )+b2 −a2[E(X )]2 −2abE(X )−b2 = a2 Var(X ).

    D’où, par passage à la racine carrée :σ(aX +b) = |a|σ(X ).

    Pour montrer la particularisation, il faut remplacer dans chaque formule b = 0 et a = 1 (selon le cas que l’on veutdémonter).

    2.4 Exemples de variables aléatoires discrètes

    2.4.1 Loi de Bernoulli

    Définition 2.21 Une expérience de Bernoulli est une expérience qui n’a que deux issues possibles, l’une appelée« succès »qui a pour probabilité p, l’autre appelée « échec »qui a pour probabilité q = 1−p.

    Définir une loi de Bernoulli de paramètre p, c’est associer une loi de probabilité discrète à cette expériencealéatoire en faisant correspondre la valeur 1 à l’apparition d’un succès et 0 à celle d’un échec.

    xi 1 0P (X = xi ) p 1−p

    Exemple 2.22 Si on lance un dé et qu’on nomme « succès » l’apparition de la face 6, on définit la loi de Bernoullisuivante :

    xi 1 0P (X = xi ) 16 56

    PROPRIÉTÉ 2.23 Soit X une variable aléatoire suivant une loi de Bernoulli B(p), alors :— L’espérance de X vaut E(X ) = p.— La variance de X vaut Var(X ) = pq .

    Exemple 2.24 Dans l’exemple précédent, on obtient E(X ) = 16 et Var(X ) = 536 .

    2.4.2 Loi binomiale

  • 22 LEÇON N°2 • VARIABLES ALÉATOIRES DISCRÈTES

    Définition 2.25 (Loi binomiale). La loi binomiale de paramètres n et p, notée Bin(n, p) est la loi de probabilité dunombre de succès dans la répartition de n expériences de Bernoulli de paramètres p identiques et indépendantes.Elle est définie par :

    P (X = k) =(

    n

    k

    )pk qn−k , ∀0 ≤ k ≤ n.

    Exemple 2.26 On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6. Chaque lancer est uneexpérience de Bernoulli de paramètres 16 . On obtient donc une loi binomiale Bin(2,1/6).

    nombre de succès 0 1 2probabilité 2536

    1036

    136

    PROPRIÉTÉ 2.27 Soit X une variable aléatoire suivant une loi binomiale Bin(n, p) alors :— L’espérance de X vaut E(X ) = np.— La variance de X vaut Var(X ) = npq .

    Exemple 2.28 Dans l’exemple précédent, on obtient E(X ) = 13 et Var(X ) = 518 .

    2.4.3 Loi de Poisson

    La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occurrences d’un événement dans unlaps de temps déterminé ou dans une région donnée. Par exemple :

    — nombre d’appels téléphoniques qui arrivent à un standard en x minutes,— nombre de clients qui attendent à la caisse d’un magasin,— nombre de défauts de peinture par m2 sur la carrosserie d’un véhicule. . .

    Définition 2.29 La variable aléatoire X suit une loi de Poisson de paramètre λ, notée Pois(λ) avec λ> 0 lorsque saloi de probabilité vérifie :

    P (X = k) = e−λλk

    k !, ∀k ∈N.

    Exemple 2.30 On considère la variable aléatoire X mesurant le nombre de clients se présentant au guichet 1 d’unbureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et 16h30. On suppose que X suit la loi dePoisson de paramètre λ= 5.

    ♦— Pour λ= 5, la table de la loi de Poisson nous donne :

    k 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14P (X = k) 0,007 0,034 0,084 0,140 0,176 0,176 0,146 0,104 0,065 0,036 0,018 0,008 0,003 0,001 0,000

    — On peut aussi représenter graphiquement la loi Pois(5) :

    1 2 3 4 5 6 7 8 9 10 11 12 13 140

    0.1

    0.2

    0

    — La probabilité qu’entre 14h30 et 14h40, 10 personnes exactement se présentent à ce guichet vaut :

    P (X = 10) = 0,018.

    — La probabilité qu’entre 15h20 et 15h30, au maximum 3 personnes se présentent à ce guichet vaut :

    P (X ≤ 3) = P (X = 0)+P (X = 1)+P (X = 2)+P (X = 3) = 0,265.

  • 2.5 Applications 23

    — La probabilité qu’entre 16h00 et 16h10, 8 personnes au moins se présentent à ce guichet vaut :

    P (X ≥ 8) = 1−P (X < 8)= 1− [P (X = 0)+P (X = 1)+·· ·+P (X = 7)] = 1−0,867 = 0,133

    .

    PROPRIÉTÉ 2.31 Soit X une variable aléatoire suivant une loi de Poisson de paramètre λ, alors l’espérance et lavariance sont égales et valent E(X ) = Var(X ) =λ.

    Exemple 2.32 Dans l’exemple précédent, on obtient E(X ) = Var(X ) = 5.

    2.5 Applications

    2.5.1 Jeux équitables

    Deux joueurs A et B jouent à un jeu d’argent où la probabilité de gagner est égale à p pour A et 1− p pour B(0 < p < 1). Les mises de A et B sont respectivement s et s′ euros et le vainqueur empoche le total des enjeux. SoientX et X ′ les gains de joueurs A et B. Le jeu est dit équitable si E(X ) = E(Y ). On a :

    E(X ) = s′p − s(1−p) et E(Y ) = (1−p)s − s′p.

    Le jeu est donc équitable sis

    p= s

    1−p ,

    autrement dit si les enjeux des joueurs sont proportionnels à leur probabilité de succès.

    2.5.2 Le jeu de St Petersbourg

    Imaginons le jeu de casino suivant : on lance une pièce (non truquée) jusqu’à l’apparition du premier pile. Si celase produit au n-ième lancer, la banque verse au joueur la somme X = 2n euros. Quel doit être l’enjeu que la banquedevrait exiger du joueur pour ne pas être perdante ?

    Pour que le jeu soit équitable, la mise doit être égale à l’espérance du gain du joueur. Mais l’espérance de X n’estpas finie car X prend les valeurs 2n (n ≥ 1) et P (X = 2n) = 12n donc :

    +∞∑n=1

    2nP (X = 2n) =+∞.

    Références pour la leçon no 2

    [3] P. DUVAL. Probabilités, TS. http://lcs.werne.lyc14.ac-caen.fr/~duvalp.

    [4] G. COSTANTINI. Probabilités : Généralités, conditionnement, indépendance. Cours de Première S. URL : http://bacamaths.net.

    [5] L. GALLARDO. Chapitre 3 : Variables aléatoires discrètes, espérance, variance et loi des grands nombres. URL=www.lmpt.univ-tours.fr/ gallardo/coursProb1-09-10-3.pdf.

    http://lcs.werne.lyc14.ac-caen.fr/~duvalphttp://bacamaths.nethttp://bacamaths.net

  • 24 LEÇON N°2 • VARIABLES ALÉATOIRES DISCRÈTES

  • Leçon n° 3

    Loi binomiale

    NIVEAU Première S + SUP (Convergence)PRÉREQUIS Variable aléatoire, espérance, variance, théorème limite central, loi de Poisson

    RÉFÉRENCES [6], [7], [8], [9], [10]

    3.1 Loi de Bernoulli

    Définition 3.1 (Loi de Bernoulli). Soit E une épreuve comportant deux issues (succès et échec). On note p laprobabilité de succès. Soit X la variable aléatoire qui est égale à 1 en cas de succès et 0 sinon. Alors, on dit que Xsuit une loi de Bernoulli de paramètres p. On note alors X ∼ Bern(p).

    Remarque 3.2 Si X ∼ Bern(p), on notera :

    P (X = 1) = p et P (X = 0) = 1−p = q.

    Exemple 3.3 On lance un dé non pipé. On note X la variable aléatoire qui prend comme valeur 1 si la face 6 apparaîtlors du lancer et 0 sinon.

    La variable aléatoire X est une variable aléatoire qui suit la loi de Bernoulli de paramètres 1/6. Donc X ∼ Bern(1/6).

    Lemme 3.4 Si X ∼ Bern(p) alors X 2 ∼ Bern(p).

    Démonstration. ♦ On a X 2(Ω) = {0,1} et :P (X 2 = 1) = P (X = 1) = p

    donc X 2 ∼ Bern(p).

    PROPOSITION 3.5 Si X ∼ Bern(p) alors :1. E(X ) = p2. Var(X ) = pq .

    Démonstration. ♦ On a :E(X ) = P (X = 0)×0+P (X = 1)×1 = q ×0+p ×1 = p,

    et :Var(X ) = E(X 2)−E(X )2 = E(X 2)−p2

    or X 2 ∼ Bern(p), donc on a : E(X 2) = E(X ) = p.Ainsi, Var(X ) = p −p2 = pq .

  • 26 LEÇON N°3 • LOI BINOMIALE

    3.2 Loi binomiale

    Définition 3.6 (Loi binomiale). Soit Ω l’univers associé à une expérience aléatoire. Soit X une variable aléatoiredéfinie surΩ. On dit que X suit une loi binomiale de paramètres n ∈N∗ et p ∈ [0 ,1] lorsque :

    1. X (Ω) = {0,1, . . . ,n} ;2. pour tout k ∈ {0,1, . . . ,n}, P (X = k) = (nk)pk (1−p)n−k = (nk)pk qn−k .

    Si X suit une loi binomiale de paramètres n et p alors on note X ∼ Bin(n, p).

    Remarque 3.7 Soit X ∼ Bin(n, p). On a bien défini une variable aléatoire car :n∑

    k=0P (X = k) =

    n∑k=0

    (n

    k

    )pk qn−k = [p + (1−p)]n = 1.

    THÉORÈME 3.8 Soit E une épreuve comportant deux issues (succès et échec). On note p la probabilité de succès.On note n fois, de façons indépendantes, l’épreuve E . Soit X la variable aléatoire correspondant au nombre desuccès. Alors : X suit une loi binomiale de paramètres n et p.

    Démonstration. ♦ La probabilité d’avoir k succès suivis de n−k succès suivis de n−k échecs est : pk (1−p)n−k . Maisles succès et les échecs n’apparaissent pas nécessairement dans cet ordre.

    On considère l’ensemble des « mots »de n lettres qui ne contiennent que des S (Succès) et des E (Échecs). On saitqu’il y en a exactement

    (np

    )qui contiennent exactement k fois la lettre S (et donc n −k fois la lettre E).

    On en déduit m

    P (X = k) =(

    n

    p

    )pk (1−p)n−k

    et ceci pour tout k ∈ {0,1, . . . ,n}.Remarques 3.9 1. La probabilité d’avoir n succès : P (X = n) = pn et d’avoir aucun succès P (X = 0) = qn . Par

    conséquent, la probabilité d’avoir au moins un succès est :

    P (X ≥ 1) = 1−P (X = 0) = 1−qn .

    2. La loi de Bernoulli est un cas particulier de la loi binomiale où l’épreuve E n’est réalisée qu’une seule fois.

    3. Toute variable aléatoire X suivant une loi binomiale de paramètres n ∈ N∗ et p ∈ [0 ,1] peut s’écrire commesomme X = X1+·· ·+Xn où, pour tout k ∈ {0,1, . . . ,n}, Xk est une variable aléatoire suivant une loi de Bernoullide paramètre p (Xk vaut 1 en cas de succès à la ke réalisation de E et 0 sinon).

    Exemples 3.10 La probabilité qu’un tireur atteigne sa cible est p = 34 . On suppose qu’il fait deux tirs et on note X lavariable aléatoire associant à cette épreuve le nombre de succès obtenus (X = 0, 1 ou 2).

    1. Calculer la probabilité des événements {X = 0}, {X = 1} et {X = 2}.2. Calculer

    ∑2k=0 P (X = k).

    3. On suppose qu’il fait sept tirs et on note Y la variable aléaoire associant à cette épreuve le nombre de succèsobtenus. Calculer P (X = 1) et P (X = 2).

    THÉORÈME 3.11 (ESPÉRANCE ET VARIANCE D’UNE LOI BINOMIALE). Si X ∼ Bin(n, p) avec n ∈N∗ et p ∈ [0 ,1] alors :

    E(X ) = np et Var(X ) = npq.

    Démonstration. ♦ Puisque X ∼ Bin(n, p), il existe des variables aléatoires (réelles) X1, X2, . . . , Xn définies surΩ indé-pendantes, de loi de Bernoulli de même paramètre p telles que X =∑ni=1 Xi .

    Par linéarité de l’espérance :

    E(X ) = E(

    n∑i=1

    Xi

    )=

    n∑i=1

    E(Xi )

    et d’après ce qui précède :

    E(X ) =n∑

    i=1p = np.

  • 3.3 Propriétés sur les coefficients binomiaux 27

    De même pour la variance :

    Var(X ) = Var(

    n∑i=1

    Xi

    )=

    n∑i=1

    Var(Xi ) =n∑

    i=1pq = npq.

    Exemple 3.12 La probabilité qu’un tireur atteigne sa cible est p = 34 . On suppose qu’il tire n = 7 fois. On note X lavariable aléatoire associant à cette expérience aléatoire le nombre de succès obtenus. Calculer son espérance et savariance.

    3.3 Propriétés sur les coefficients binomiaux

    3.3.1 Définitions et propriétés

    Définition 3.13 (Combinaisons). Soient n et p deux entiers naturels et E un ensemble contenant n éléments. Unsous-ensemble de E contenant p éléments est appelé une combinaison de p éléments de E .

    Le nombre de p-combinaisons d’un ensemble contenant n éléments est noté(n

    p

    )ou

    (np

    ).

    Exemple 3.14 Pour gagner au Loto, il faut trouver 3 numéros parmi 5. On veut savoir combien il y a de grillespossibles. Considérons une grille quelconque (c’est-à-dire une 3-combinaison de l’ensemble des 5 numéros) : parexemple {1,3,4}. Il y a 3! façons possibles d’ordonner ces nombres. Or, il y a

    (53

    )×3! suites de 3 nombres ordonnées.Mais, on compte 5×4×3 de ces dernières suites. Donc :(

    5

    3

    )= 5×4×3

    3!.

    On peut maintenant généraliser la formule :

    PROPOSITION 3.15 Le nombre de p-combinaisons d’un ensemble contenant n éléments est noté(n

    p

    )= n(n −1)(n −2) · (n − (p −1))

    p !(3.1)

    = n!p !(n −p)! (3.2)

    ♦ Démonstration de la proposition 3.15. On part de la formule (3.1) pour arriver à la formule (3.2) :(n

    p

    )= n(n −1)(n −2) · · · (n −p +1)

    p !

    = n(n −1)(n −2) · · · (n −p +1)p !

    (n −p)(n −p −1) · · ·2×1(n −p)(n −p −1) · · ·2×1

    = n!p !(n −p)!

    Une autre façon de voir la formule (3.2). Il y a Apn manières de tirer p objets parmi n en les ordonnant soit

    Apn =n!

    (n −p)! .

    Une fois les p objets tirés, il y a p ! manières de les ordonner. Il y a donc Apn

    p ! manières de tirer p objets parmi sans lesordonner. D’où (

    n

    p

    )= A

    pn

    p != 1

    p !

    n!

    (n −p)! .

  • 28 LEÇON N°3 • LOI BINOMIALE

    Définition 3.16 (Coefficients binomiaux). Soit p un entier naturel non nul. Les nombres(n

    p

    )sont appelés les coef-

    ficients binomiaux.

    PROPOSITION 3.17 (FORMULE DE PASCAL). Soit n, p ∈N tel que p < n. On a :(n

    p

    )=

    (n −1

    p

    )+

    (n −1p −1

    ).

    ♦ Démonstration de la formule de Pascal. Soit un ensemble E à n éléments. On suppose que l’on a « extrait » unepartie à p éléments. Si l’on retire un élément {a} à E , c’est soit un élément de la combinaison, soit non. Dans lepremier cas, les p −1 restants forment une partie de l’ensemble E \ {a} de cardinal n −1, et dans le second, ce sontles p éléments qui forment une partie de E \ {a}. Cette union étant disjointe, les cardinaux s’ajoutent pour aboutir àl’égalité demandée.

    n\p 0 1 2 3 · · ·0 11 1 12 1 2 13 1 3 3 1...

    ......

    ......

    . . .

    FIGURE 3.1 – Triangle de Pascal

    PROPOSITION 3.18 (FORMULE ITÉRÉE DE PASCAL). Soit p ≤ n deux entiers naturels. Alorsn∑

    k=p

    (k

    p

    )=

    (n +1p +1

    ).

    ♦ Démonstration de la formule itérée de Pascal. On effectue une récurrence sur l’entier n.

    Initialisation Lorsque n = p, les deux membres valent 1.Hérédité On suppose que la formule est vraie au rang n et on montre qu’elle est encore vraie au rang n +1 :

    n+1∑k=p

    (k

    p

    )=

    n∑k=p

    (k

    p

    )+

    (n +1

    p

    )

    et d’après l’hypothèse de récurrence,

    n+1∑k=p

    (k

    p

    )=

    (p +1n +1

    )+

    (n +1

    p

    )=

    (n +2p +1

    ).

    La dernière égalité est justifiée par l’emploi de la formule de Pascal.

    On note A =C (ou R ouQ ou Z).

    THÉORÈME 3.19 (FORMULE DU BINÔME). Soient deux éléments a,b de A qui commutent. Alors :

    ∀n ∈N, (a +b)n =n∑

    k=0

    (n

    k

    )ak bn−k .

  • 3.3 Propriétés sur les coefficients binomiaux 29

    ♦ Démonstration de la formule du binôme de Newton. Pour n = 1, nous avons :1∑

    k=0

    (1

    k

    )ak b1−k =

    (1

    0

    )b +

    (a

    =

    )a +b.

    La formule du binôme est vraie pour n = 1.Supposons que la formule du binôme soit vraie au rang n ≥ 1. Alors,

    (a +b)n+1 = (a +b) · (a +b)n = (a +b)n∑

    k=0

    (n

    k

    )ak bn−k .

    En distribuant le produit, nous obtenons

    (a +b)n+1 =n∑

    k=0

    (n

    k

    )ak+1bn−k +

    n∑k=0

    (n

    k

    )ak bn+1−k .

    Nous effectuons alors la translation d’indices l = k +1 dans la première somme :

    (a +b)n+1 =n+1∑l=1

    (n

    l −1

    )al bn+1−l +

    n∑k=0

    (n

    k

    )ak bn+1−k .

    L’indice de sommation étant muet, nous pouvons regrouper les deux sommes :

    (a +b)n+1 =(

    n

    n

    )an+1 +

    n∑k=1

    [(n

    k −1

    )+

    (n

    k

    )]ak bn+1−k +

    (n

    0

    )bn+1.

    On utilise ensuite la formule du triangle de Pascal :

    (a +b)n+1 =(

    n

    n

    )an+1 +

    n∑k=1

    (n +1

    k

    )ak bn+1−k +

    (n

    0

    )bn+1.

    On remarque que :(n

    0

    )= 1 = (n+10 ) et que (nn)= 1 = (n+1n+1) pour faire entrer les deux termes isolés dans la somme.(a +b)n+1 =

    n+1∑k=0

    (n +1

    k

    )ak bn+1−k .

    Corollaire 3.20 On a les égalités suivantes :

    1.∑n

    k=0(n

    k

    )= 2n ,2.

    ∑nk=0(−1)k

    (nk

    )= 0.♦ Démonstration du corollaire 3.20. 1. On utilise le binôme de Newton avec a = 1 et b = 1.

    2. On utilise le binôme de Newton avec a =−1 et b = 1.

    Remarque 3.21 On remarque que l’égalité 1 du corollaire 3.20 traduit le fait que le nombre de parties d’un ensembleà n éléments est 2n . En effet, ce nombre est la somme des nombres de parties ayant respectivement 0, 1, . . . éléments(le cardinal d’une union disjointe est la somme des cardinaux), ce qui correspond bien à la somme indiquée.

    PROPOSITION 3.22 (FORMULE DE VAN DER MONDE). Pour tous entiers m,n et p tels que p ≤ m +n, on a l’égalité :(m +n

    p

    )=

    p∑k=0

    (m

    k

    )(n

    p −k

    ).

  • 30 LEÇON N°3 • LOI BINOMIALE

    Remarque 3.23 On remarque que l’égalité 1 du corollaire 3.20 traduit le fait que le nombre de parties d’un ensembleà n éléments est 2n . En effet, ce nombre est la somme des nombres de parties ayant respectivement 0, 1, . . . éléments(le cardinal d’une union disjointe est la somme des cardinaux), ce qui correspond bien à la somme indiquée.

    ♦ Démonstration de la formule de Van der Monde. Soit x un réel. Alors :

    (1+x)m(1+x)n = (1+x)m+n =m+n∑p=0

    (m +n

    p

    )xp .

    Or

    (1+x)m(1+x)n =(

    m∑i=0

    (m

    i

    )xi

    )(n∑

    j=0

    (n

    j

    )x j

    )=

    m∑i=0

    n∑j=0

    (m

    i

    )(n

    j

    )xi+ j

    =((

    m

    0

    )(n

    0

    ))+

    ((

    (m

    0

    )(n

    1

    )+

    (m

    1

    )(n

    0

    ))x

    )

    +(

    (

    (m

    0

    )(n

    2

    )+

    (m

    1

    )(n

    1

    )+

    (m

    2

    )(n

    0

    ))x2

    )+·· ·

    =m+n∑p=0

    (( ∑i , j>0

    i+ j=p

    (m

    i

    )(n

    j

    ))xp

    ).

    Par identification des coefficients de ce polynôme de degré p, on obtient finalement que, pour tout entier 0 ≤ p ≤m +n, (

    m +np

    )= ∑

    i , j>0i+ j=p

    (m

    i

    )(n

    j

    )=

    p∑i=0

    (m

    i

    )(n

    p − i

    ).

    3.4 Stabilité additive de la loi binomiale

    THÉORÈME 3.24 (STABILITÉ ADDITIVE DE LA LOI BINOMIALE). Si X ∼ Bin(m, p) et Y ∼ Bin(n, p) avec X et Y indé-pendantes, alors X +Y = Bin(m +n, p).

    Soit (Ai )1≤i≤n une suite d’événements. On note :∐n

    i=0 Ai si les événements sont disjoints.

    Démonstration. ♦ On pose S = X +Y . On a clairement S(Ω) = {0, . . . ,m +n}.Calculons P (S−1(k)) pour tout 1 ≤ k ≤ m +n :

    S−1(k) =k∐

    i=0X −1(i )∩Y −1(k − i ).

    D’où :

    P (S−1(k)) =k∑

    i=0P (X −1(i )∩Y −1(k − i )).

    Et comme X et Y sont indépendantes :

    P (S−1(k)) =k∑

    i=0P (X −1(i ))P (Y −1(k − i )).

    Comme X ∼ Bin(m, p) et Y ∼ Bin(n, p) :

    P (S−1(k)) =k∑

    i=0

    (m

    i

    )p i (1−p)m−i

    (n

    k − i

    )pk−i (1−p)n−(k−i )

    =(

    k∑i=0

    (m

    i

    )(n

    k − i

    ))pk (1−p)m+n−k .

  • 3.5 Convergence 31

    Et comme∑k

    i=0(m

    i

    )( nk−i

    )= (m+nk ).P (S−1(k)) =

    (m +n

    k

    )pk (1−p)m+n−k .

    Donc S ∼ Bin(m +n, p).

    3.5 Convergence

    3.5.1 Vers la loi de Poisson

    THÉORÈME 3.25 Lorsque n tend vers l’infini et que simultanément pn → 0 de sorte que limn npn = a > 0, la loibinomiale de paramètres n et pn converge vers la loi de Poisson de paramètre a. En pratique, on remplace la loibinomiale par une loi de Poisson dès que n > 30 et np < 5 ou dès que n > 50 et p < 0.1.

    Démonstration. ♦ On décompose P (X = k) :(n

    k

    )pkn(1−pn)n−k =

    n(n −1) · · · (n −k +1)k !

    pkn(1−pn)n−k

    = (npn)k

    k !

    (1− 1

    n

    )(1− 2

    n

    )· · ·

    (1− k −1

    n

    )(1−pn)n−k .

    On se place dans la situation où pn est équivalent àan en l’infini.

    — Lorsque n tend vers l’infini, les facteurs(1− 1n

    ),(1− 2n

    ), . . .,

    (1− k−1n

    )tendent vers 1. Le produit de ces termes

    tend également vers 1 puisqu’ils sont en nombre fini fixé k.— On a :

    (1−pn)n−k = (1−pn)n(1−pn)−k ,or, limp→0(1− p)−k = 1 et de plus, (1− pn)n ' (1− an )n et ce dernier terme tend vers e−a quand n tend versl’infini.

    On trouve donc :

    limn→+∞

    (n

    k

    )pkn(1−pn)n−k =

    ak

    k !e−a ,

    qui est la probabilité de k pour la loi de Poisson de paramètre a.

    3.5.2 Vers la loi normale

    THÉORÈME 3.26 Soit (Xn)n une suite de variable aléatoires indépendnates de même loi de Bernoulli Bern(p) etSn = X1 +·· ·+Xn suit la loi binomiale Bin(n, p).

    D’après le théorème central limite, la loi de Sn peut re approximée par la loi normale N(E(Sn),Var(Sn)), c’est-à-dire par la loi N(np,npq).

    Remarque 3.27 En pratique, lorsque n ≥ 30, np ≥ 15 et npq > 5, la loi binomiale Bin(n, p) peut être approximée parla loi normale N(np,npq).

    3.6 Échantillonnage

    3.6.1 Premier problème : proportion de boules dans une urne

    Dans une urne contenant une dizaine de boules, il y a 2 boules noires et 8 boules blanches. La proportion deboules noires est donc de 1/5.

    On pioche dans l’urne avec ordre et remise une vingtaine de boules et on s’intéresse à la proportion de boulesnoires obtenues.

    Cette expérience a été recommencée 100 fois à l’aide d’un tableur et voici les proportions obtenues.

    Proportion 0 0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0,5 TotalNb d’échantillons 0 9 13 20 27 16 9 5 0 1 0 100

  • 32 LEÇON N°3 • LOI BINOMIALE

    1. Quel est le nombre d’échantillons qui ont une proportion de boules noires de 0,3 ?

    2. Quel est le nomb re d’échantillons qui ont une proportion de boules noires de 0,6 ?

    3. Quel est le nombre d’échantillons qui ont une proportion de boules noires entre 0,1 et 0,4 ?

    4. Le but de cette partie est de retrouver par le calcul ce dernier nombre. On considère la variable aléatoire Xqui lors de l’expérience compte le nombre boules noires obtenues.

    (a) Justifier que X suit une loi binomiale dont on précisera les paramètres.

    (b) Calculer P (2 ≤ X ≤ 8).(c) En déduire la probabilité que la proportion de boules noires soit comprise entre 0 et 0,4.

    ♦ Solution.

    Proportion 0 0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0,5 TotalNb d’échantillons 0 9 13 20 27 16 9 5 0 1 0 100

    1. Le nombre d’échantillons qui ont une proportion de boules noires de 0,3 est 9.

    2. Le nombre d’échantillons qui ont une proportion de boules noires de 0,6 est 0. En effet, tous les échantillonssont déjà dans le tableau.

    3. Le nombre d’échantillons qui ont une proportion de boules noires comprise entre 0,1 et 0,4 est 13+20+27+16+9+5 = 90. Soit 90%.

    4. (a) On recommence 20 fois de manière indépendante une expérience ayant deux issues possibles, succès ouéchec. La variable aléatoire qui compte le nombre de succès suit une loi binomiale de paramètres 20 et1/5.

    (b) P (2 ≤ X ≤ 8) = 0,92.(c) On cherche la probabilité que la proportion de boules noires dans un échantillon soit comprise entre 0,1

    et 0,4 ; c’est-à-dire la probabilité qu’il y ait entre 10% et 40% de boules noires. Or chaque échantillonnagecontient 20 boules. Ainsi 10% de boules noires pari ces 20 boules représente exactement 2 boules noires.De même 40% représente 8 boules noires. Finalement, chercher la probabilité que la proportion de boulesnoires dans les échantillonnages soit comprise entre 0,1 et 0,4 revient à chercher la probabilité de piocherentre 2 et 8 boules noires parmi les 20 boules. C’est exactement la probabilité que l’on a calculé à la ques-tion 4b, soit 0,92. Ce qui correspond à peu près au 90% trouvé grâce au tableau.

    3.6.2 Second problème : proportion de camions sur une autoroute

    Sur une autoroute, la proportion des camions par rapport à l’ensemble des véhicules est 0,07.

    1. Soit X le nombre de camions parmi 100 véhicules choisis au hasard. Calculer P (X ≥ 5).2. Soit Y le nombre de camions parmi 1000 véhicules choisis au hasard. Calculer P (65 ≤ Y ≤ 75).3. On choisit n véhicules au hasard. Pour quelles valeurs de n peut-on affirmer que la proportion de camions

    est entre 0,06 et 0,08 avec un risque d’erreur inférieur à 5% ?

    ♦ Solution. 1. Soit X une variable aléatoire de loi binomiale Bin(100,0.07). 100 ≥ 30, 100×0,07 = 7 < 15, 0,07 ≤0,1 donc l’approximation à utiliser est celle par la loi de Poisson Pois(7) et :

    P (X ≥ 5) ≈ 1−e−74∑

    k=0

    7k

    k !≈ 0,827.

    2. Y suit la loi binomiale Bin(1000,0.07). 1000 ≥ 30, 1000×0,07 = 70 ≥ 15, 70×0,93 = 64,1 > 4 donc l’approxi-mation à utiliser est celle par la loi normale N(70,65.1) et si F désigne la fonction de répartition de la loiN(70,65.1),

    P (65 ≤ Y ≤ 75) ≈ F (75.5)−F (64.5) =Φ(

    5.5p65.1

    )−Φ

    (− 5.5p

    65.1

    )= 2Φ

    (5.5p65.1

    )−1 ≈ 2Φ(0.68) ≈ 0.5

  • 3.7 Loi multinomiale 33

    3. On choisit n véhicules au hasard. Le nombre Sn des camions parmi ces n véhicules suit la loi binomialeBin(n,0.07) et la proportion des camions est Snn .

    On cherche n tel que

    P(∣∣∣ Snn −0.07∣∣∣≥ 0.01)= 0.05.

    Si n ≥ 30, 0.07n ≥ 15 et 0.07× 0.93×n > 5, c’est-à-dire n ≥ 215, on peut approximer la loi de Snn par la loinormale N(0.07, 0.0651n ) et la loi de

    Snn −0.07 par la loi normale N(0, 0.065n ). On a alors :

    P

    (∣∣∣∣Snn −0.07∣∣∣∣≥ 0.01)= P (∣∣∣∣ pnp0.0651

    (Snn

    −0.07)∣∣∣∣≥ pnp0.0651 1100

    )≈ 2

    (1−Φ

    ( pnp

    651

    ))≈ 0.05

    On a doncΦ( p

    np651

    )≈ 0.975 ≈Φ(1.96) et n ≈ 1.962 ×651 ≈ 2501. 2501 ≥ 90, ce qui légitime l’approximation.

    3.7 Loi multinomiale

    Définition 3.28 (Loi multinomiale). Le vecteur aléatoire N suit la loi multinomiale de paramètres n et (p1, . . . , pd )où n ∈ N∗ et les pi sont strictement positifs et de somme 1 si pour tout d-uple ( j1, j2, . . . , jd ) d’entiers tels quej1 + j2 +·· ·+ jd = n,

    P [N = ( j1, j2, . . . , jd )] =n!

    j1! j2! · · · jd !p j11 p

    j22 · · ·p

    jdd .

    Exemple 3.29 On considère 20 tirages d’une boule avec remise dans une urne contenant 1 boule bleue, 3 jaunes, 4rouges et 2 vertes. Notons N = (N1, N2, N3, N4) où Ni est le nombre de boules de la couleur i en numérotant les cou-leurs par ordre alphabétique (b,j,r,v). On a (p1, p2, p3, p4) = ( 110 , 310 , 410 , 210 ). La probabilité d’obtenir en 20 tirages 3bleues, 5 jaunes, 10 rouges et 2 vertes est :

    P (N = (3,5,10,2)) = 20!3!5!10!2!

    (1

    10

    )3 ( 310

    )5 ( 410

    )10 ( 210

    )2' 0,004745.

    Références pour la leçon no 3

    [6] M. LENZEN. Leçon no 3 : Coefficients binomiaux, dénombrement des combinaisons, formule du binôme. Appli-cations. URL : http://www.capes-de-maths.com/index.php?page=leconsNEW. 2011.

    [7] G. CONNAN. Une année de mathématiques en Terminale S. Ch.14, URL : http://tehessin.tuxfamily.org.2009-2010.

    [8] G. COSTANTINI. Loi binomiale. URL : http://bacamaths.net.

    [9] C. SUQUET. Intégration et Probabilités Elémentaires. URL : http://math.univ-lille1.fr/~ipeis/. 2009-2010.

    [10] C. GRAFFIGNE. Démonstration de la formule du binôme de Newton. Université Paris V, L1, S1. http://www.math-info.univ-paris5.fr/~avner/MC1/L1_S1/cours/eq/node11.html.

    http://www.capes-de-maths.com/index.php?page=leconsNEWhttp://tehessin.tuxfamily.orghttp://bacamaths.nethttp://math.univ-lille1.fr/~ipeis/http://www.math-info.univ-paris5.fr/~avner/MC1/L1_S1/cours/eq/node11.htmlhttp://www.math-info.univ-paris5.fr/~avner/MC1/L1_S1/cours/eq/node11.html

  • 34 LEÇON N°3 • LOI BINOMIALE

  • Leçon n° 4

    Variables aléatoires réelles à densité

    NIVEAU Terminale S et BTS

    PRÉREQUISprobabilités, intégrales, primitives, croissance comparée, équations différentielles, désin-tégration radioactive

    RÉFÉRENCES [11], [12]

    4.1 Introduction

    Nous avons vu dans la leçon « Variables aléatoires discrètes » que des variables aléatoires peuvent prendre leurvaleur dans un sous-ensemble des nombres entiers. On va essayer de généraliser en élargissant l’ensemble des va-leurs de départ d’une variable aléatoire à un intervalle de R.

    Exemple 4.1 On tire au hasard un point a sur le segment [0,1] et on note X = a. On a alors X (Ω) = [0 ,1].1. Calculer P ({X = 0,5}).2. Calculer la probabilité que X appartienne au segment [0, 12 ].

    4.2 Densité et loi de probabilité

    Définition 4.2 (Densité de probabilité). Soit I un intervalle de R. On appelle densité de probabilité sur I , toutefonction f continue et positive sur I telle que : ∫

    If (t )dt = 1.

    Remarque 4.3 La notation∫

    I désigne l’intégrale sur l’intervalle I .

    1. Si I = [a ,b] alors ∫I

    f (t )dt =∫ b

    af (t )dt .

    2. Si I est non borné d’un coté (par exemple I = [a ,+∞[ alors∫I

    f (t )dt = limx→+∞

    ∫ xa

    f (t )dt .

    3. Si I =R alors : ∫I

    f (t )dt = limx→−∞

    ∫ 0x

    f (x)dt + limx→+∞

    ∫ x0

    f (t )dt .

    Exemple 4.4 Soit f une fonction constante sur l’intervalle [0,1]. On cherche la valeur de cette constante pour que fsoit une densité. On note γ cette constante : ∫ 1

    0γdt = 1 ⇔ γ= 1.

    Plus généralement, si f est une fonction continue sur l’intervalle [a ,b], on montre que f (t ) = γ= 1b−a .

  • 36 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Définition 4.5 (Loi de probabilité). Soit I un intervalle et f une densité de probabilité sur I . L’application P qui, àtout sous-intervalle [a ,b] de I associe la quantité :

    P ([a ,b]) =∫ b

    af (t )dt

    est appelé loi de probabilité sur I .

    ♦ Justification de la définition 4.5. Soit (In)n∈N une famille de sous-intervalles disjoints de I , alors par linéarité del’intégrale :

    P

    ( ⋃n∈N

    In

    )= ∑

    n∈N

    ∫In

    f (t )dt = ∑n∈N

    P (In)

    et de plus P (I ) = 1.Remarques 4.6 1. On a bien 0 ≤ P ([a ,b]) ≤ 1 car [a ,b] est inclus dans I .

    2. On a :

    P ({x0}) =∫ x0

    x0f (t )dt .

    On dit alors que {x0} est un événement « presque-sûrement impossible ».

    Exemples 4.7 1. Si f est constante sur [a ,b], on dit que P est la loi uniforme.

    2. Si f est de la forme f (t ) = λe−λt sur R avec λ > 0, on dit que P est la loi exponentielle de paramètre λ. On atout de même besoin d’une justification. Soit λ> 0 un réel. On montre que f (t ) =λe−λt définie sur R est unedensité de probabilité sur R+. On calcule :∫ x

    0f (t )dt =

    ∫ x0λe−λt dt =λ

    [−e

    −λt tλ

    ]x0

    = 1−e−λx .

    Or, on a :lim

    x→+∞(1−e−λx ) = 1.

    La limite en +∞ de ∫ x0 f (t )dt existe bien et on a :∫R+

    f (t )dt = 1.

    4.3 Variables aléatoires continues. Loi uniforme, loi exponentielle

    Définition 4.8 Soit P une loi de probabilité sur un intervalle I de f . On dit qu’une variable aléatoire X , à valeursdans I , suit une loi de probabilité P lorsque pour tout sous-intervalle [a ,b] de I , on a :

    P (a ≤ X ≤ b) =∫ b

    af (t )dt .

    Exemples 4.9 1. On peut maintenant répondre aux questions de l’exemple introductif. X suit une loi uniformesur l’intervalle [0,1]. Donc :

    (a)

    P (X = 0,5) =∫ 0,5

    0,51dt = 0.

    (b)

    P (X ∈ [0 ,0,5]) = P (0 ≤ X ≤ 0,5) =∫ 0,5

    01dt = 0,5.

    Dans le cas général, supposons que X suivent la loi uniforme sur [a ,b]. Alors :

    P (α≤ X ≤β) =∫ βα

    1

    b −a dt =β−αb −a .

  • 4.4 Espérance d’une variable aléatoire continue 37

    On note L([a ,b]) la longueur de l’intervalle de [a ,b]. Si X suit une loi uniforme sur un intervalle I , alors laprobabilité d’un sous-intervalle J est donné par la formule :

    P (X ∈ J ) = L(J )L(I )

    .

    2. Si X suit la loi exponentielle de paramètre λ> 0, alors

    P (0 ≤ X ≤ x) =∫ x

    0λe−λt dt = 1−e−λt

    et par complémentarité :

    P (X ≥ x) = 1−P (0 ≤ X ≤ x) = e−λx .

    Définition 4.10 (Fonction de répartition). Soit X une variable aléatoire, à valeurs dans un intervalle I de la forme[a ,b] (ou de la forme [a ,+∞[) qui suit une loi de probabilité P . On appelle fonction de répartition de X , la fonctionF définie pour tout réel x de I par :

    F (x) = P (X ≤ x).

    PROPRIÉTÉ 4.11 Si F est une fonction de répartition de X alors :

    1. F est croissante sur [a , x],

    2. F (a) = 0,3. F (b) = 1 (si I = [a ,b]) ou

    limx→+∞F (x) = 1 si I = [a ,+∞[.

    4. P (X > x) = 1−F (x)5. P (α< X ≤β) = F (β)−F (α).

    Exemple 4.12 Si X suit la loi exponentielle de paramètre λ, on a :

    F (x) = 1−e−λt .

    4.4 Espérance d’une variable aléatoire continue

    Définition 4.13 (Espérance d’une variable aléatoire continue). Soit X une variable aléatoire continue prenant sesvaleurs dans un intervalle I . On appelle espérance de X la quantité :

    E(X ) =∫

    It f (t )dt

    Exemples 4.14 1. Si X suit une loi uniforme sur I = [a ,b] alors :

    E(X ) =∫ b

    a

    t

    b −a dt =1

    b −a[

    t 2

    2

    ]ba= b +a

    2.

    2. Soit X suit une loi exponentielle de paramètre λ> 0 sur R+. On calcule l’intégrale suivante :∫ x0

    tλe−λt dt =λ∫ x

    0te−λt dt .

    On pose :

    u(t ) = t et v ′(t ) = e−λt ,ainsi

    u′(t ) = 1 et v(t ) =−e−λt

    λ.

  • 38 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Une intégration par parties donne :

    λ

    ∫ x0

    te−λt dt =[−te−λt

    ]x0+

    ∫ x0

    e−λt dt =−xe−λx − 1λ

    [e−λt

    ]x0= −λxe

    −λx −e−λx +1λ

    .

    Puis, on étudie la limite lorsque x tend vers +∞. On sait que :lim

    x→+∞−xe−λx = 0

    grâce à la règle des croissances comparées et

    limx→+∞e

    −λx = 0

    donc E(X ) = 1λ .

    4.5 Exemples de variables aléatoires à densité

    4.5.1 Lois normales

    Définition

    Définition 4.15 (Loi normale). Soit m ∈ R et σ ∈ R∗+. On dit que la variable aléatoire réelle X suit la loi normaleN(m,σ) si elle a pour densité de probabilité la fonction f définie par :

    ∀x ∈R, f (x) = 1σp

    2πe−1/2[(x−m)/σ]

    2.

    Conséquence 4.16

    P (a ≤ X ≤ b) = 1σp

    ∫ ba

    e−1/2[(x−m)/σ]2

    dx.

    Cas particulier de N(0,1)

    La densité de probabilité est alors f (x) = 1p2π

    e−x2/2 et on appelle, dans ce cas,Π la fonction de répartition.

    On a donc :

    P (a ≤ X ≤ b) =∫ b

    a

    1p2π

    e−x22dx =Π(b)−Π(a).

    Les valeurs de la fonction de répartition pour la loi normale centrée réduite étant tabulées, il est désormais possiblede calculer P (a ≤ X ≤ b).PROPRIÉTÉ 4.17 La fonction f est paire sur R.

    1O

  • 4.5 Exemples de variables aléatoires à densité 39

    Conséquence 4.18 Si x > 0 alorsΠ(−x) = 1−Π(x).

    Démonstration. ♦ En effet :

    Π(−x) = P (X ≤−x) =∫ −x−∞

    f (t )dt =∫ −x− inf

    f (−t )dt

    car f une fonction paire

    =∫ +∞

    xf (t )dt

    après le changement de variable u =−t

    =∫ +∞−∞

    f (t )dt −∫ x−∞

    f (t )dt = 1−Π(x).

    Exemples 4.19 1. Π(1) = P (X ≤ 1) correspond donc à l’aire sous la courbe délimité à droite par la droite d’équa-tion x = 1.

    2. Π(−1) = P (X ≤ −1) = 1−Π(−1) correspond à l’aire sous la courbe délimité à gauche par la droite d’équationx = 1.

    1O

    Se ramener à une N(0,1)

    PROPRIÉTÉ 4.20 Soit X ∼N(m,σ). Alors Y = X−mσ ∼N(0,1). On dit qu’on centre et qu’on réduit la variable aléatoireX .

    Démonstration. ♦

    P (a ≤ Y ≤ b) = P(

    a ≤ X −mσ

    ≤ b)

    = P (Aσ+m ≤ X ≤ bσ+m) =∫ bσ+m

    aσ+m1

    σp

    2πe−1/2[(x−m)/σ]

    2dx

    On effectue alors le changement de variable y = x−mσ et on obtient :

    P (a ≤ Y ≤ b) =∫ b

    a

    1

    σp

    2πe−y

    2/2σdy =∫ b

    a

    1p2π

    e−y2/2 dy

    donc Y a pour densité f (x) = 1p2π

    e−x22. La variable aléatoire Y suit bien une loi normale centrée réduite.

  • 40 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Exemple 4.21 La variable aléatoire X suit une loi normale de paramètres m = 2,09 et σ = 0,13, autrement dit X ∼N(2.09,0.13).

    On va se ramener à une loi normale centrée réduit en posant : T = X−mσ et donc T ∼ N(0,1). On demande decalculer P (X ≤ 2,35) et P (1,895 ≤ X ≤ 2,285).

    P (X ≤ 2,35) = P(

    X −2,090,13

    ≤ 2)= P (T ≤ 2) = 0,9772.

    P (1,895 ≤ X ≤ 2,285) = P (−1,5 ≤ T ≤ 1,5) = P (T ≤ 1,5)−P (T ≤−1,5)= P (T ≤ 1,5)− (1−P (T ≤ 1,5)) = 2×P (T ≤ 1,5)−1= 2×0,9332−1 = 0,8664.

    Espérance et variance

    PROPRIÉTÉ 4.22 Si X ∼N(m,σ) alors E(X ) = m et Var(X ) =σ2.

    Démonstration. ♦—

    E(X ) =∫ +∞−∞

    x1

    σp

    2πe−1/2[(x−m)/σ]

    2dx.

    On considère la variable aléatoire Y = X−mσ alors Y ∼N(0,1). On a : X =σY +m donc :{E(X ) =σE(Y )+mVar(X ) =σ2 Var(Y )

    donc si

    {E(Y ) = 0Var(Y ) = 1 alors

    {E(X ) = mVar(X ) =σ2 .

    E(Y ) =∫ +∞−∞

    yp2π

    e−y2/2 dy = 0 car f est une fonction paire.

    —Var(Y ) = E(Y 2)− (E(Y ))2 = E(Y 2).

    Il faut donc calculer :

    E(Y 2) =∫ +∞−∞

    y2

    σp

    2πe−y

    22dy.

    Pour cela, on va faire une IPP en considérant l’intégrale suivante :

    soit a > 0, I (a) =∫ a−a

    1p2π

    e−y2/2 dy

    avec : {u(y) = e−y2 2, u′(x) =−ye−y2/2v ′(y) = 1p

    2π, v(y) = yp

    2π.

    I (a) =[

    yp2π

    e−y2/2

    ]a−a

    + 1p2π

    ∫ a−a

    y2e−y22dy

    = 2ap2π

    e−a2/2 +

    ∫ a−a

    y2p2π

    e−y2/2 dy.

    Puis on fait tendre a vers +∞ et on obtient :∫ +∞−∞

    1p2π

    e−y2/2 dy = 1 =

    ∫ +∞−∞

    y2p2π

    e−y2/2 dy.

    Au final, on a :Var(Y ) = E(Y 2) = 1.

  • 4.5 Exemples de variables aléatoires à densité 41

    Compléments : table de la loi normale

    Soit X la variable aléatoire suivant la loi normale centrée réduite N(0,1).La table 4.1 nous donne les valeurs P (X ≤ t ) où t = a,bc. La première colonne correspond à a,b et la première

    ligne correspond à c.

    FIGURE 4.1 – Table des valeurs deΦ, fonction de répartition de la loi normale standard N(0,1)

    4.5.2 Loi uniforme

    La loi uniforme sur [a,b], notée Unif([a,b]) a pour densité de probabilité :{f (x) = 0 si x ∉ [a ,b]f (x) = 1b−a si x ∈ [a ,b].

  • 42 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    PROPRIÉTÉ 4.23 Si X ∼ Unif([a,b]) alors :

    E(X ) = a +b2

    et Var(X ) = (b −a)2

    12.

    FIGURE 4.2 – Densité de la loi uniforme [a,b]

    FIGURE 4.3 – Fonction de répartition de la loi uniforme [a,b]

    4.5.3 Loi exponentielle

    La loi exponentielle Exp(λ) a pour densité de probabilité :{f (x) = 0 si x < 0f (x) =λe−λx si x ≥ 0

    PROPRIÉTÉ 4.24 La densité de probabilité h de la somme de deux variables aléatoires indépendantes dont lesdensités f et g sont nulles pour x ≤ 0, est définie par :

    h(x) =∫ x

    0f (x − t )g (t )dt .

  • 4.6 Applications 43

    PROPRIÉTÉ 4.25 Si X ∼ Exp(λ) alors :E(X ) = 1

    λet Var(X ) = 1

    λ2.

    FIGURE 4.4 – Densité de la loi exponentielle Exp(λ) pour λ= 0,5, λ= 1, λ= 1,5

    FIGURE 4.5 – Fonction de répartition de la loi exponentielle Exp(λ) pour λ= 0,5, λ= 1, λ= 1,5

    4.6 Applications

    4.6.1 Loi de durée de vie sans vieillissement

    Définition 4.26 Soit T une variable aléatoire correspondant à la durée de vie d’un individu ou d’un objet. On ditque T suit la loi de durée de vie sans vieillissement lorsque la probabilité que l’individu (ou l’objet) soit vivant (oufonctionne) à l’instant t +h sachant qu’il est vivant (ou qu’il fonctionne) à l’instant t ne dépend pas de son âge :

    P(T≥t )(T ≥ t +h) = P (T ≥ h).

    PROPOSITION 4.27 Une variable aléatoire T suit la loi de durée sans vieillissement si et seulement si elle suit uneloi exponentielle.

    ♦ Démonstration de la proposition 4.27. (⇐) On suppose que T suive une loi exponentielle de paramètreλ ∈R+.

  • 44 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

    Par définition d’une probabilité conditionnelle, on a :

    P(T≥t )(T ≥ t +h) = P ((T ≥ t +h)∩ (T ≥ t ))P (T ≥ t ) .

    Or l’événement « T ≥ t +h » est inclus dans l’événement « T ≥ t » donc :

    P ((T ≥ t +h)∩ (T ≥ t )) = P (T ≥ t +h) = e−λ(t+h).

    Par ailleurs :P (T ≥ t ) = e−λt ,

    d’où :

    P(T≥t )(T ≥ t +h) = e−λ(t+h)

    e−λt= e−λh = P (T ≥ h).

    (⇒) Réciproquement, soit T une variable aléatoire suivant une loi de durée de vie sans vieillissement. Alors,pour tout réel t de R+ et tout réel h de R+ :

    P(T≥t )(T ≥ t +h) = P (T ≥ h) ⇔ P (T ≥ t +h) = P (T ≥ h)P (T ≥ t ).

    Soit F la fonction de répartition de la variable aléatoire T . On note ϕ la fonction définie sur R+ par :

    ϕ(t ) = 1−F (t ) = 1−P (T ≤ t ) = P (T > t ) = P (T ≥ t ).

    Comme F est dérivable sur R+, ϕ l’est aussi et on a :

    ϕ(0) = 1−F (0) = 1 et ϕ(t +h) =ϕ(t )ϕ(t ),

    autrement dit, ϕ vaut 1 en 0 et transforme les sommes en produits. Il existe donc un réel a (voir la leçon« Équations différentielles ») tel que

    ϕ(t ) = eat .Mais comme ϕ est en fait une probabilité, on a pour tout t ∈R+ :

    ϕ(t ) ≤ 1 ⇔ eat ≤ 1 ⇔ at ≤ 0 ⇔ a ≤ 0.

    On pose λ=−a ∈R+. Si a était nul, on aurait, pour tout t ∈R+ :

    ϕ(t ) = 1 ⇔ P (T ≥ t ) = 1

    Ce qui signifierait que notre individu est éternel, hypothèse que l’on peut rejeter. Donc, on a bien λ ∈ R∗+.D’où, pour tout t ∈R+ :

    ϕ(t ) = e−λt ⇔ 1−F (t ) = e−λt

    et en dérivant, on obtient :− f (t ) =−λe−λt ⇔ f (t ) =λe−λt .

    La variable aléatoire T suit donc une loi exponentielle de paramètre λ.

    ♦ Une autre preuve pour loi de durée de vie sans vieillissement implique loi exponentielle. Soit X une variable aléa-toire dont la loi vérifie :

    ∀s ∈R+, ∀t ∈R+, P (X > t + s | X > t ) = P (X > s) (4.1)et G sa fonction de survie 1 Comme G = 1−F , G est décroissante et continue à droite et tend vers 0 en +∞. De plus,l’écriture de (4.1) suppose implicitement que G(t ) > 0 pour tout t ≥ 0 car sinon P (· | X > t ) ne serait pas définie. On aaussi :

    P (X > t + s | X > t ) = P (X > t + s)P (X > t ) =

    G(t + s)G(t )

    . (4.2)

    1. la fonction de survie d’une loi exponentielle est défini de la manière suivante :

    G(x) = P (X > x) = 1−F (x) ={

    1 si x ≤ 0e−ax si x > 0 .

  • 4.6 Applications 45

    Grâce à (4.2), on voit que la propriété d’absence de mémoire (4.1) équivaut à :

    ∀s ∈R, ∀t ∈R+, G(t + s)G(t )

    =G(s).

    La fonction de survie G doit donc être une solution décroissante, continue à droite, tendant vers 0 en +∞ et telle que0 0, on a

    G(0) = 1. (4.4)En faisant s = t dans (4.3), on obtient G(2t ) =G(t )2, puis de proche en proche

    ∀n ∈N∗, ∀t ≥ 0, G(nt ) =G(t )n . (4.5)En particulier pour t = 1/d , d ∈N∗ :

    ∀n ∈N∗, ∀d ∈N∗, G ( nd )=G ( 1d )n . (4.6)Lorsque n = d , (4.6) donne G(1) =G(1/d)d d’où :

    ∀d ∈N∗, G ( 1d )=G(1)1/d . (4.7)Nous connaissons maintenant G sur l’ensemble des rationnels positifs puisque (4.4), (4.5), (4.6) et (4.7) nous donnent

    ∀r ∈Q+, G(r ) =G(1)r (4.8)Soit x ∈ R+ \Q+, x est limite d’une suite décroissante (rn) de rationnels. Comme G est continue à droite, G(rn)converge vers G(x). D’autre part l’application y 7→ G(1)y est continue sur R. Ainsi, en appliquant (4.8) à rn et enfaisant tendre n vers l’infini, on obtient :

    ∀x ∈R+, G(x) =G(1)x . (4.9)A priori, la constante G(1) est dans ]0,1]. On peut écarter la valeur G(1) = 1 car sinon d’après (4.9), la limite en +∞de G serait 1 alors qu’elle vaut 0.

    Finalement, puisque 0 < G(1) < 1, on peut poser G(1) = e−a pour un réel a > 0 (cela revient à prendre a =− lnG(1)). On peut alors réécrire (4.9) sous la forme

    ∀x ∈R+, G(x) = e−ax .La fonction de survie G est donc la même que celle de la loi exponentielle de paramètre a, donc X suit cette loi.

    4.6.2 Loi de désintégration radioactive

    Selon les physiciens, la durée de vie T d’un noyau radioactif suit une loi de durée de vie sans vieillissement,autrement dit, une loi exponentielle. Considérons l’expérience E : « on examine un noyau à l’instant 2 t ». On note Sl’événement « Ce noyau n’est pas désintégré ». D’après la loi exponentielle, il existe un réel λ strictement positif telque :

    P (S) = P (T ≥ t ) = e−λt .Supposons que l’on ait au départ (t = 0), dans notre corps radioactif, N0 noyaux. On note X t la variable aléatoireégale au nombre de noyaux non désintégrés à l’instant t . Comme chaque noyau se désintègre indépendamment auxautres, on peut affirmer que X t suit une loi binomiale de paramètres n = N0 et p = P (S) = e−λt . Le nombre moyenN (t ) de noyaux présents à l’instant t est donc donné par l’espérance de X t :

    N (t ) = E(X t ) = np = N0e−λt .

    Références pour la leçon no 4

    [11] G. COSTANTINI. Lois de probabilités continues. URL : http://bacamaths.net.

    [12] C. SUQUET. Intégration et Probabilités Elémentaires. URL : http://math.univ-lille1.fr/~ipeis/. 2009-2010.

    2. La constante λ est appelée « constante radioactive » du noyau

    http://bacamaths.nethttp://math.univ-lille1.fr/~ipeis/

  • 46 LEÇON N°4 • VARIABLES ALÉATOIRES RÉELLES À DENSITÉ

  • Leçon n° 5

    Représentation et interprétation dedonnées. Outils statistiques

    NIVEAU Collège, Seconde, Première S, Terminale STMGPRÉREQUIS aucun

    RÉFÉRENCES [13],[14],[15], [16]

    5.1 Statistiques à une variable

    5.1.1 Premières définitions et exemples

    Définition 5.1 (Statistiques). La statistique étudie certaines caractéristiques : caractères ou variables d’un en-semble fini qu’on appelle population. Les éléments de cette population étudiée sont appelés individus.

    Définition 5.2 (Type de variables). On peut classer en trois catégories les variables rencontrées :

    Qualitative numérique et fait l’objet de calcul. Par exemple, des couleurs ou des sports favoris.

    Quantitative discrète si la variable prend qu’un nombre fini de valeurs (on appelle modalités de telle valeur eton les notera xi ). Par exemple, le nombre de frères et sœurs (ne peut qu’être un nobre entier).

    Quantitative continue si la variable prend ses valeurs dans un intervalle (classe). Par exemple, âge, taille etpoids.

    Exemple 5.3 Voici une liste de 30 notes d’un Devoir Surveillé de 2nde d’un lycée parisien :

    5 10 12 13 20 1415 8 3 4 5 120 14 12 3 5 1910 4 9 10 15 1211 12 14 20 4 0

    On peut regrouper ces notes par ordre croissant et on les compte :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    et on peut regrouper ces notes par intervalle :

    Intervalle [0 ,5[ [5 ,10[ [10,15[ [15,20[ TotalEffectif 7 5 12 6 30

  • 48 LEÇON N°5 • REPRÉSENTATION ET INTERPRÉTATION DE DONNÉES. OUTILS STATISTIQUES

    Définition 5.4 (Représentation graphique de données statistiques). — Si le caractère est quantitatif discret,on peut utiliser le diagramme en bâtons pour représenter graphiquement les données statistiques. Dans unrepère orthogonal, pour chaque valeur de la série statistique, on trace un trait vertical dont la hauteur estproportionnelle.

    — Si le caractère est quantitatif continue, on peut utiliser le diagramme en rectangles pour représenter graphi-quement les données statistiques. Dans un repère orthogonal, la base des rectangles est proportionnelle àla longueur de l’intervalle et la hauteur est proportionnelle à l’effectif.

    — Si le caractère est qualitatif, on utilise les diagrammes circulaires.

    Exemple 5.5 On donne en figure 5.1, la représentation graphique de la série statistique des classements de notes parordre croissant et par intervalle de 5 notes.

    (a) Représentation graphique du classement des notes parordre croissant

    (b) Représentation graphique du classement par inter-valles

    FIGURE 5.1

    5.1.2 Effectif et fréquence

    Définition 5.6 (Effectif ). L’effectif d’une classe ou d’une modalité est le nombre d’individu de cette classe ou decette modalité. Généralement, on note ni l’effectif de la classe numéro i (ou de la modalité xi ).

    L’effectif total est la somme des effectifs de toutes les classes. On le note souvent N .

    Exemple 5.7 Dans l’exemple précédent,

    N =5∑

    i=1ni = n1 +n2 +n3 +n4 = 7+5+12+8 = 30.

    Définition 5.8 (Effectif cumulé). L’effectif cumulé d’une modalité est la somme des effectifs des modalités qui luisont inférieurs ou égales.

    Définition 5.9 (Fréquence). La fréquence notée fi de la classe i (ou de la modalité xi ) est le rapport fi = niN , lafréquence d’une classe est un nombre de l’intervalle [0,1].

    Définition 5.10 La fréquence cumulée d’une modalité est la somme des fréquences des modalités qui lui sont in-férieures ou égales.

    Exemple 5.11 Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3Effectif cumul. 1 2 2 4 7 10 10 10 11 12 15 16 20 21 24 26 26 26 26 27 30

  • 5.1 Statistiques à une variable 49

    (par exemple, 20 personnes ont une note inférieure ou égale à 12) et

    Intervalle [0 ,5[ [5 ,10[ [10,15[ [15,20[ TotalEffectif 7 5 12 6 30Effectif cumul. 7 12 24 30 30

    (par exemple 12 personnes ont en dessous de la moyenne).

    5.1.3 Etendue et mode d’une série statistique

    Définition 5.12 (Etendue d’une série statistique). L’étendue d’une série statistique est la différence entre la pluspetite modalité du caractère et la plus grande modalité.

    Exemple 5.13 Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    L’étendue de cette série est 20−0 = 20.

    Définition 5.14 (Mode d’une série statistique). Dans le cas continu, on dit qu’une classe est modale si elle a le plusgrand effectif parmi toutes les classes.

    Dans le cas discret, le mode est la valeur de plus grand effectif.

    Exemple 5.15 Dans cette série statistique, on a :

    Intervalle [0 ,5[ [5 ,10[ [10,15[ [15,20[ TotalEffectif 7 5 12 6 30

    La classe modale de cette série statistique est [10,15[.

    5.1.4 Paramètre de position

    Moyenne

    Définition 5.16 (Moyenne). Dans le cas discret, on appelle moyenne d’une série statistique d’effectif total N , le réel

    x = n1x1 +n2x2 +·· ·+nk xkN

    .

    Exemple 5.17 Reprenons les données de l’exemple précédent. On a :

    Note 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20Effectif 1 1 0 2 3 3 0 0 1 1 3 1 4 1 3 2 0 0 0 1 3

    La moyenne de la série statistique est :x = 1×1+0×2+2×3+3×4+3×5+0×6+0×7+1×8+1×9+3×10+11×1+12×4+13×1+14×3+15×2+16×0+17×0+18×0+19×1+3×2030x = 30430 ' 10,13.

    Remarque 5.18 Pour calculer la moyenne d’une série statistique continu, on prend comme valeur de caractère lemilieu de chaque classe.

    PROPRIÉTÉS 5.19 1. Si on ajoute à toutes les valeurs d’une série statistique le même nombre b, on augmentela moyenne de cette série par b.

    2. Si les valeurs d’une série statistique sont multipliées ou divisées par un même nombre a, la moyenne decette série est aussi multipliée ou divisée par a.

    3. Si une population d’effectif N est composée d’une partie d’effectif N1 et de moyenne x1 et d’une autre partie

  • 50 LEÇON N°5 • REPRÉSENTATION ET INTERPRÉTATION DE DONNÉES. OUTILS STATISTIQUES

    d’effectif N2 et de moyenne x2 alors la moyenne x de la population totale est telle que :

    x = N1x1 +N2x2N

    .

    Exemple 5.20 Si, dans une classe, les 15 garçons d’une classe mesurent en moyenne 182 cm et si les 20 filles me-surent en moyenne 168 cm alors la taille moyenne d’un élève de cette classe est égale à

    15×182+20×16815+20 = 174 cm.

    Médiane

    Définition 5.21 La médiane est un paramètre de position qui permet de couper la population étudiée en deuxgroupes contenant le même nombre d’individus.

    Exemple 5.22 On reprend la liste des 30 notes d’un Devoir Surveillé de 2nde d’un lycée parisien :

    5 10 12 13 20 1415 8 3 4 5 120 14 12 3 5 1910 4 9 10 15 1211 12 14 20 4 0

    Pour trouver la médiane, on range les notes par ordre croissant.

    0 1 3 3 4 44 5 5 5 8 9

    10 10 10 11 12 1212 12 13 14 14 1415 15 19 20 20 20

    Comme il y a 30 notes, la médiane correspond à la moyenne de la 15e note et de la 16e de cette liste, d’où :

    0 1 3 3 4 44 5 5 5 8 9

    10 10 10 11 12 1212 12 13 14 14 1415 15 19 20 20 20

    , x = 10+112

    = 10,5.

    Remarque 5.23 En général, la moyenne et la médiane d’une série statistique sont deux valeurs différentes.

    5.1.5 Paramètre de dispersion

    Associé à la moyenne

    Définition 5.24 (Variance). On appelle variance d’une série statistique d’effectif total N , et de moyenne x, le réel :

    V = n1(x1 −x)2 +n2(x2 −x)2 +·· ·+nk (xk −x)2

    N.

    Définition 5.25 (Ecart-type). On appelle l’écart-type de la série, le réel σ=pV .

    Exemple 5.26 Dans l’exemple des notes, on peut montrer que :

    V = 7286225

    ' 32,115

    etσ=

    pV =

    √32,115 ' 5,66.

  • 5.2 Statistiques à deux variables 51

    PROPRIÉTÉS 5.27 1. Si on ajoute à toutes les valeurs d’une série statistique le même nombre b, l’écart-typereste inchangé.

    2. Si les valeurs d’une série statistique sont multipliées ou divisées par un même nombre a, l’écart-type estmultiplié ou divisé par |a|.

    Associé à la médiane

    Définition 5.28 Soit une série statistique de médiane M dont la liste des valeurs est rangée dans l’ordre croissant.En coupant la liste en deux sous-séries de même effectif,

    — on appelle premier quartile le réel noté Q1 égal à la médiane de la sous-série inférieure ;— on appelle troisième quartile le réel noté Q3 égal à la médiane de la sous-série supérieure.— L’écart-interquartile est égal à Q3 −Q1.— ]Q1 ,Q3[ est appelé intervalle interquartile.

    Remarque 5.29 — 25% de la population admet une valeur du caractère entre min et Q1,— 25% de la population admet une valeur du caractère entre Q1 et M ,— 25% de la population admet une valeur du caractère entre M et Q3,— 25% de la population admet une valeur du caractère entre Q3 et max.

    Définition 5.30 (Diagramme en boites). Le diagramme en boites d’une série se construit de la manière suivante :

    min Q1 M Q3 max

    Exemple 5.31 On reprend la liste ordonnée de l’exemple précédent :

    0 1 3 3 4 44 5 5 5 8 9

    10 10 10 11 12 1212 12 13 14 14 1415 15 19 20 20 20

    On peut immédiatement voir que Q1 = 4+52 = 4,5 et Q3 = 13+142 = 13,5. Donc, on a la construction du diagramme enbâtons suivant (voir la figure 5.2) :

    min = 0 Q1 M Q1 max = 20

    FIGURE 5.2 – Construction du diagramme en boîte

    5.2 Statistiques à deux variables

    5.2.1 Vocabulaire

  • 52 LEÇON N°5 • REPRÉSENTATION ET INTERPRÉTATION DE DONNÉES. OUTILS STATISTIQUES

    Définition 5.32 — Soient x et y deux caractères quantitatifs d’une même population. À chaque individu dela population, on associe un couple (xi ; yi ) où xi et yi pour 1 ≤ i ≤ n avec n entier naturel sont les valeursprises respectivement par x et y . L’ensemble de ces couples constitue une série statistique à deux variablesx et y .

    — Dans un repère (O, #»ı , #» ), l’ensemble des points Mi de coordonnées (xi ; yi ) est appelé nuage de points asso-cié à la série statistique