probabilités, statistique et applications · 2018. 4. 13. · en n, les mod eles de les...

66
Extrait de la publication

Upload: others

Post on 25-Sep-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Extrait de la publication

Page 2: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 3: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Probabilités

statistique

et applications

MarioLefebvre

Presses internationalesP o l y t e c h n i q u e

Extrait de la publication

Page 4: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Probabilités, statistique et applicationsMario Lefebvre

Couverture : Cyclone Design

Pour connaître nos distributeurs et nos points de vente, veuillez consulter notre site Web à l’adresse suivante : www.polymtl.ca/pub

Courriel des Presses internationales Polytechnique : [email protected]

Nous reconnaissons l’aide financière du gouvernement du Canada par l’entremise du Fonds du livre du Canada pour nos activités d’édition.

Gouvernement du Québec – Programme de crédit d’impôt pour l’édition de livres – Gestion SODEC.

Tous droits réservés © Presses internationales Polytechnique, 2011

On ne peut reproduire ni diffuser aucune partie du présent ouvrage, sous quelque forme ou par quelque procédé que ce soit, sans avoir obtenu au préalable l’autorisation écrite de l’éditeur.

Dépôt légal : 1er trimestre 2011 ISBN 978-2-553-01554-0 (version imprimée) Bibliothèque et Archives nationales du Québec ISBN 978-2-553-01564-9 (version PDF) Bibliothèque et Archives Canada Imprimé au Canada

Page 5: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Dieu ne joue pas aux des.

Albert Einstein

Ils tirerent au sort, et le sort tomba sur Matthias,qui fut associe aux onze apotres.

Actes 1: 26

Page 6: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 7: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Avant-propos

Ce livre s’adresse aux etudiants de premier cycle en sciences pures et ap-pliquees, et particulierement ceux en genie. Les chapitres 2 a 4 presentent latheorie des probabilites dont ces etudiants ont generalement besoin dans le cadrede leur formation. Quoique le niveau mathematique de l’expose soit suffisam-ment eleve pour des non-mathematiciens, j’ai intentionnellement evite de tropentrer dans les details. Par exemple, des sujets tels que les variables aleatoiresde type mixte et la fonction delta de Dirac ne sont que brievement mentionnes.

Les cours de probabilites sont souvent consideres comme difficiles. Cependant,apres avoir enseigne cette matiere pendant plusieurs annees, j’en suis venu a laconclusion qu’un des principaux problemes auxquels certains etudiants font facelorsqu’ils essaient d’apprendre la theorie des probabilites est leur faiblesse encalcul differentiel et integral de base. Par exemple, les etudiants qui suiventun cours de probabilites ont souvent deja oublie la technique d’integration parparties. Pour cette raison, j’ai decide d’inclure dans cet ouvrage un chapitre quipresente les elements de base du calcul differentiel. Meme si celui-ci ne sera pro-bablement pas presente en classe, les etudiants pourront s’y referer au besoin. Cechapitre vise a donner au lecteur une bonne idee de l’utilisation en probabilitesdes concepts qu’il devrait deja connaıtre.

Le chapitre 2 presente les resultats principaux de ce qu’on appelle les pro-babilites elementaires, y compris la formule de Bayes et des elements d’analysecombinatoire. Quoique ces notions ne soient pas compliquees au point de vuemathematique, c’est souvent un contenu que les etudiants ont de la difficulte amaıtriser. Il n’y a pas d’autre solution que de faire de tres nombreux exercicespour se sentir a l’aise avec cette partie de la matiere.

Le chapitre 3 est consacre au sujet plus technique des variables aleatoires.Tous les modeles importants pour les applications, comme les distributions bi-nomiale et normale, y sont presentes. En general, les etudiants reussissent mieuxles questions sur ce sujet dans les examens et ont l’impression que leur travailest plus recompense que dans le cas de l’analyse combinatoire, en particulier.

Les vecteurs aleatoires, y compris le tres important theoreme central limite,constituent le sujet du chapitre 4. Je me suis efforce de presenter la matiere leplus simplement possible. Il reste qu’il est evident que les integrales doubles nepeuvent pas etre plus simples que les integrales simples.

Page 8: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

VI

La partie statistique du manuel commence au chapitre 5, dans lequel lesprincipales quantites qui permettent de caracteriser un ensemble de donnees sontdefinies. Cette branche de la statistique est appelee statistique descriptive; ellene devrait pas causer de problemes aux etudiants. Le chapitre 5 traite aussi del’estimation des parametres des variables aleatoires, soit l’estimation ponctuelleet la technique d’estimation par intervalle de confiance.

La theorie des tests d’hypotheses est developpee au chapitre 6. On presenteles principaux tests d’ajustement de modeles theoriques aux donnees ainsi quede nombreux tests des parametres des variables aleatoires, comme la moyenne etla variance d’une distribution gaussienne. Il s’agit d’un des principaux elementsde la statistique mathematique.

Des applications des chapitres 2 a 6 sont presentees aux chapitres 7 a 9.D’abord, le chapitre 7 traite de la regression lineaire simple, qui est un sujetde premiere importance en sciences appliquees. Il y est aussi question de laregression curviligne.

La fiabilite, qui intervient dans la plupart des disciplines du genie, et particu-lierement en genie mecanique, fait l’objet du chapitre 8. Les notions presenteesgeneralisent les notions de base de fiabilite vues au chapitre 2.

Enfin, les modeles de files d’attente de base sont etudies au chapitre 9. Lesetudiants en genie informatique et en genie industriel ont souvent besoin deconnaissances sur ce sujet. On doit alors introduire le concept de processusstochastique, lequel est brievement mentionne au chapitre 4 sur les vecteursaleatoires. La theorie des files d’attente pouvant etre relativement complexe, jem’en suis tenu aux modeles les plus simples. Ceux-ci sont tout de meme suffisantsdans la plupart des applications.

Peu importe le niveau et la formation des etudiants qui suivent un coursde probabilites et statistique, une chose est certaine: comme il est mentionneci-dessus, il est necessaire de resoudre plusieurs exercices avant d’avoir le sen-timent d’avoir maıtrise la theorie. A cette fin, le manuel contient pres de600 exercices, dont un grand nombre comportent plusieurs parties. A la fin dechaque chapitre, le lecteur trouvera des exercices resolus, suivis de nombreuxexercices non resolus. Les reponses des exercices dont le numero est pair sontfournies a l’appendice C. Il y a aussi plusieurs questions a choix multiple, dontles reponses sont donnees a l’appendice D.

Page 9: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

VII

Les chapitres 2 a 7 du manuel sont tires du livre Cours et exercices de statis-tique mathematique appliquee, publie par les Presses internationales Polytech-nique. Cet ouvrage est surtout axe sur la statistique, tandis que Probabilites,statistique et applications comporte cinq chapitres sur les probabilites (y com-pris les applications presentees dans les chapitres 8 et 9) et trois chapitres surla statistique.

Il me fait plaisir de remercier toutes les personnes avec lesquelles j’ai travailleau cours de ma carriere a l’Ecole Polytechnique de Montreal, et qui ont fournides exercices interessants que j’ai inclus dans ce manuel.

Finalement, je remercie egalement toute l’equipe de production des Pressesinternationales Polytechnique.

Mario LefebvreMontreal, septembre 2010

Extrait de la publication

Page 10: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 11: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Table des matieres

Liste des tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .XIII

Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XV

1 Revision du calcul differentiel et integral . . . . . . . . . . . . . . . . . . . . . 11.1 Limites et continuite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Derivees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Integrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3.1 Techniques d’integration particulieres . . . . . . . . . . . . . . . . . . . 101.3.2 Integrales doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.4 Series infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.4.1 Series geometriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.5 Exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Probabilites elementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.1 Experiences aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.2 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.3 Probabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.4 Probabilite conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.5 Probabilite totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442.6 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.7 Exercices du chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 713.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3.1.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

Page 12: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

X Table des matieres

3.1.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.2 Variables aleatoires discretes importantes . . . . . . . . . . . . . . . . . . . . . . 77

3.2.1 Distribution binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 773.2.2 Distribution de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803.2.3 Distributions geometrique et binomiale negative . . . . . . . . . . 803.2.4 Distribution hypergeometrique . . . . . . . . . . . . . . . . . . . . . . . . . 833.2.5 Distribution et processus de Poisson . . . . . . . . . . . . . . . . . . . . 84

3.3 Variables aleatoires continues importantes . . . . . . . . . . . . . . . . . . . . . 873.3.1 Distribution normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.3.2 Distribution gamma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 923.3.3 Distribution de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 953.3.4 Distribution beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 953.3.5 Distribution lognormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

3.4 Fonctions de variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 983.4.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 983.4.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

3.5 Caracteristiques des variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . 1003.6 Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

4 Vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1434.1 Vecteurs aleatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1434.2 Vecteurs aleatoires continus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1474.3 Fonctions de vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

4.3.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1544.3.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1574.3.3 Convolutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

4.4 Covariance et coefficient de correlation . . . . . . . . . . . . . . . . . . . . . . . . 1614.5 Theoremes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1664.6 Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5 Statistique descriptive et estimation . . . . . . . . . . . . . . . . . . . . . . . . . 2055.1 Statistique descriptive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

5.1.1 Tableaux d’effectifs ou de frequences . . . . . . . . . . . . . . . . . . . . 2065.1.2 Representations graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2075.1.3 Quantites calculees en utilisant les donnees . . . . . . . . . . . . . . 209

5.2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2125.2.1 Proprietes des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2145.2.2 La methode du maximum de vraisemblance . . . . . . . . . . . . . . 221

Page 13: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Table des matieres XI

5.3 Distributions d’echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2255.4 Estimation par intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . 232

5.4.1 Intervalle de confiance pour µ; σ connu . . . . . . . . . . . . . . . . . . 2335.4.2 Intervalle de confiance pour µ; σ inconnu . . . . . . . . . . . . . . . . 2355.4.3 Intervalles de confiance pour µX − µY . . . . . . . . . . . . . . . . . . . 2375.4.4 Intervalles de confiance pour σ2 . . . . . . . . . . . . . . . . . . . . . . . . 2385.4.5 Intervalle de confiance pour σ2

X/σ2Y . . . . . . . . . . . . . . . . . . . . . 242

5.4.6 Intervalle de confiance pour p . . . . . . . . . . . . . . . . . . . . . . . . . . 2435.4.7 Intervalle de confiance pour pX − pY . . . . . . . . . . . . . . . . . . . . 2455.4.8 Intervalle de confiance base sur θVM . . . . . . . . . . . . . . . . . . . . 245

5.5 Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246

6 Tests d’hypotheses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2856.1 Introduction et terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286

6.1.1 Les especes d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2876.2 Tests d’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

6.2.1 Test d’ajustement du khi-deux de Pearson . . . . . . . . . . . . . . . 2896.2.2 Test de Shapiro-Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2926.2.3 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . 294

6.3 Test d’independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2976.4 Tests au sujet des parametres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299

6.4.1 Test d’une moyenne theorique µ; σ connu . . . . . . . . . . . . . . . . 2996.4.2 Test d’une moyenne theorique µ; σ inconnu . . . . . . . . . . . . . . 3056.4.3 Test d’une variance theorique σ2 . . . . . . . . . . . . . . . . . . . . . . . . 3076.4.4 Test d’une proportion theorique p . . . . . . . . . . . . . . . . . . . . . . . 3106.4.5 Test de l’egalite de deux moyennes; variances connues . . . . . 3126.4.6 Test de l’egalite de deux moyennes; variances inconnues . . . 3156.4.7 Test de deux moyennes avec observations appariees . . . . . . . 3186.4.8 Test de l’egalite de deux variances . . . . . . . . . . . . . . . . . . . . . . 3196.4.9 Test de l’egalite de deux proportions . . . . . . . . . . . . . . . . . . . . 3216.4.10 Test de l’egalite de plusieurs proportions . . . . . . . . . . . . . . . . . 3226.4.11 Test de l’egalite de plusieurs moyennes; analyse de la

variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3246.5 Exercices du chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328

7 Regression lineaire simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3817.1 Le modele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3817.2 Tests d’hypotheses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385

Page 14: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

XII Table des matieres

7.3 Intervalles et ellipses de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3897.4 Le coefficient de determination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3917.5 L’analyse des residus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3927.6 Regression curviligne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3957.7 Correlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3987.8 Exercices du chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401

8 Fiabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4238.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4238.2 Fiabilite des systemes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433

8.2.1 Systemes en serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4348.2.2 Systemes en parallele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4368.2.3 Autres cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441

8.3 Liens et coupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4448.4 Exercices du chapitre 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450

9 Files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4639.1 Chaınes de Markov a temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . 4639.2 Systemes de files d’attente avec un seul serveur . . . . . . . . . . . . . . . . 471

9.2.1 Modele M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4739.2.2 Modele M/M/1 a capacite finie . . . . . . . . . . . . . . . . . . . . . . . . 482

9.3 Systemes de files d’attente avec deux ou plusieurs serveurs . . . . . . . 4899.3.1 Modele M/M/s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4899.3.2 Modele M/M/s/c . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495

9.4 Exercices du chapitre 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498

A Tableaux statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513

B Quantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517

C Reponses - Exercices a numeros pairs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 521

D Reponses - Questions a choix multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533

Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537

Page 15: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Liste des tableaux

3.1 Moyennes et variances des distributions de probabilite dessections 3.2 et 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5.1 Valeurs de zα . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2345.2 Valeurs de tα,n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2365.3 Valeurs de χ2

α,n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2405.4 Valeurs de Fα,n1,n2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

6.1 Valeurs critiques de la statistique Dn . . . . . . . . . . . . . . . . . . . . . . . . . 295

A.1 Fonction de repartition de la distribution binomiale . . . . . . . . . . . . . 514A.2 Fonction de repartition de la distribution de Poisson . . . . . . . . . . . . 515A.3 Valeurs de la fonction Φ(z) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 516A.4 Valeurs de la fonction Q−1(p) pour quelques valeurs de p . . . . . . . . 516

Page 16: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 17: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Liste des figures

1.1 Fonction de densite conjointe dans l’exemple 1.3.5 . . . . . . . . . . . . . . 151.2 Region d’integration dans l’exemple 1.3.5 . . . . . . . . . . . . . . . . . . . . . . 161.3 Region A dans l’exercice resolu no 8 . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.1 Diagramme de Venn pour l’exemple 2.2.1 . . . . . . . . . . . . . . . . . . . . . . 372.2 Diagramme de Venn pour trois evenements quelconques . . . . . . . . . 372.3 Probabilite de l’union de deux evenements quelconques . . . . . . . . . . 392.4 Diagramme de Venn pour l’exemple 2.3.1 . . . . . . . . . . . . . . . . . . . . . . 412.5 Notion de probabilite conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 422.6 Systeme pour la partie (a) de l’exemple 2.4.1 . . . . . . . . . . . . . . . . . . 432.7 Diagramme de Venn pour la partie (a) de l’exemple 2.4.1 . . . . . . . . 432.8 Systeme pour la partie (b) de l’exemple 2.4.1 . . . . . . . . . . . . . . . . . . 442.9 Exemple de la regle de la probabilite totale avec n = 3 . . . . . . . . . . 452.10 Exemple d’arbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462.11 Arbre dans l’exemple 2.6.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.12 Figure pour l’exercice no 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572.13 Figure pour l’exercice no 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602.14 Figure pour l’exercice no 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612.15 Figure pour l’exercice no 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622.16 Figure pour l’exercice no 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.1 Fonction de repartition de la variable aleatoire dans l’exemple3.1.1 (ii) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.2 Fonction de densite de la variable aleatoire dans l’exemple 3.1.3 . . 763.3 Fonction de repartition de la variable aleatoire dans l’exemple 3.1.3 773.4 Fonctions de probabilite de variables aleatoires binomiales . . . . . . . 79

Extrait de la publication

Page 18: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

XVI Liste des figures

3.5 Fonction de probabilite d’une variable aleatoire geometrique . . . . . 813.6 Fonction de densite d’une variable aleatoire normale . . . . . . . . . . . . 883.7 Fonctions de densite de diverses variables aleatoires qui

presentent une distribution gamma avec λ = 1 . . . . . . . . . . . . . . . . . 933.8 Fonction de densite de probabilite d’une variable aleatoire

uniforme sur l’intervalle (a, b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 963.9 Coefficient d’asymetrie des distributions exponentielles . . . . . . . . . . 1103.10 Coefficient d’asymetrie des distributions uniformes . . . . . . . . . . . . . . 111

4.1 Fonction de repartition conjointe dans l’exemple 4.2.2 . . . . . . . . . . . 1534.2 Fonction de densite dans l’exemple 4.3.4 . . . . . . . . . . . . . . . . . . . . . . . 1584.3 Figure pour l’exercice resolu no 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1734.4 Figure pour l’exercice resolu no 27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1834.5 Figure pour l’exercice no 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1874.6 Figure pour l’exercice no 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189

5.1 Polygone d’effectifs construit en se servant des donnees del’exemple 5.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

5.2 Histogramme obtenu avec les donnees de l’exemple 5.1.1 . . . . . . . . . 2085.3 Exemples de distributions de Student . . . . . . . . . . . . . . . . . . . . . . . . . 2275.4 Fonction de densite de la distribution de Fisher avec m = 4 et

n = 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2285.5 Definition de la quantite zα/2 pour une variable aleatoire Z qui

presente une distribution normale centree reduite . . . . . . . . . . . . . . . 2335.6 Definition de la quantite tα/2,n−1 pour une variable aleatoire T

qui presente une distribution tn−1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2365.7 Definition des quantites χ2

α/2,n−1 et χ21−α/2,n−1 pour une variable

aleatoire X qui presente une distribution χ2n−1 . . . . . . . . . . . . . . . . . 239

5.8 Definition des quantites Fα/2,n1,n2et F1−α/2,n1,n2

pour unevariable aleatoire X qui presente une distribution Fn1,n2 . . . . . . . . . 242

6.1 Erreur de premiere et de deuxieme espece dans le cas du testunilateral a droite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

7.1 Graphique dans l’exemple 7.1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3847.2 Residus formant une bande uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 3937.3 Residus indiquant au moins une hypothese non verifiee . . . . . . . . . . 394

8.1 Taux de panne ayant la forme d’une baignoire . . . . . . . . . . . . . . . . . 431

Page 19: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Liste des figures XVII

8.2 Un systeme en pont . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4438.3 Un systeme en pont represente comme un systeme en parallele

forme de ses liens minimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4488.4 Un systeme en pont represente comme un systeme en serie forme

de ses coupes minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4488.5 Figure pour l’exercice no 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4588.6 Figure pour la question a choix multiple no 9 . . . . . . . . . . . . . . . . . . 461

9.1 Diagramme de transitions pour le modele M/M/1 . . . . . . . . . . . . . . 4759.2 Diagramme de transitions pour le modele de file d’attente de

l’exemple 9.2.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4809.3 Diagramme de transitions pour le modele de file d’attente de

l’exemple 9.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4889.4 Diagramme de transitions pour le modele M/M/2 . . . . . . . . . . . . . . 4909.5 Figure pour l’exemple 9.3.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493

Page 20: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 21: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

1

Revision du calcul differentiel et integral

Ce chapitre presente les principaux resultats du calcul differentiel et integralutilises en probabilites. Souvent, les etudiants qui suivent un cours sur latheorie des probabilites eprouvent de la difficulte a saisir des concepts commeles integrales et les series infinies. Nous rappelons en particulier la techniqued’integration par parties.

1.1 Limites et continuite

La limite d’une fonction est definie formellement comme suit.

Definition 1.1.1. Soit f une fonction a valeurs reelles. On dit que f(x) tendvers f0 (∈ R) lorsque x tend vers x0 si, pour n’importe quel nombre positif ε, ilexiste un nombre positif δ tel que

0 < |x− x0| < δ =⇒ |f(x)− f0| < ε

On ecrit: limx→x0 f(x) = f0. C’est-a-dire que f0 est la limite de la fonctionf(x) lorsque x tend vers x0.

Remarques.(i) La limite peut exister meme si la fonction f(x) n’est pas definie au point x0.(ii) Il est possible que f(x0) existe, mais que f(x0) 6= f0.(iii) On ecrit que limx→x0 f(x) =∞ si, pour n’importe quel M > 0 (aussi grandque l’on veut), il existe un δ > 0 tel que

0 < |x− x0| < δ =⇒ f(x) > M

Extrait de la publication

Page 22: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

2 1 Revision du calcul differentiel et integral

De facon similaire, on peut avoir limx→x0 f(x) = −∞.(iv) Dans la definition, on suppose que x0 est un nombre reel. Cependant, onpeut generaliser cette definition au cas ou x0 = ±∞.

Parfois, on s’interesse a la limite de la fonction f(x) lorsque x decroıt oucroıt vers un nombre reel donne x0. La limite a droite (respectivement limitea gauche) de la fonction f(x) lorsque x decroıt (respectivement croıt) vers x0

est notee limx↓x0 f(x) (respectivement limx↑x0 f(x)). Certains auteurs ecriventlimx→x+

0f(x) (respectivement limx→x−0

f(x)). Si la limite de f(x) lorsque x tendvers x0 existe, alors

limx↓x0

f(x) = limx↑x0

f(x) = limx→x0

f(x)

Definition 1.1.2. On dit que la fonction a valeurs reelles f(x) est continueau point x0 ∈ R si (i) elle est definie en ce point, (ii) la limite lorsque x tendvers x0 existe, et (iii) limx→x0 f(x) = f(x0). Si f est continue en tout pointx0 ∈ [a, b] (ou (a, b), etc.), alors on dit que f est continue dans cet intervalle.

Remarques.(i) Dans ce livre, un intervalle ferme est note [a, b], tandis que (a, b) est unintervalle ouvert. On a aussi, bien sur, les intervalles [a, b) et (a, b].(ii) Si l’on ecrit plutot, dans la definition, que la limite limx↓x0 f(x) (respecti-vement limx↑x0 f(x)) existe et est egale a f(x0), alors on dit que la fonction estcontinue a droite (respectivement continue a gauche) en x0. Une fonction quiest continue en un certain point x0 tel que a < x0 < b est a la fois continue adroite et continue a gauche en ce point.(iii) On dit qu’une fonction f est continue par morceaux dans un intervalle [a, b] sicet intervalle peut etre divise en un nombre fini de sous-intervalles dans lesquelsf est continue et possede des limites a gauche et a droite.(iv) Soit f(x) et g(x) deux fonctions a valeurs reelles. La composition des deuxfonctions est notee g f et est definie par

(g f)(x) = g[f(x)]

Au chapitre 3, nous utiliserons le resultat suivant: la composition de deux fonc-tions continues est aussi une fonction continue.

Page 23: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

1.1 Limites et continuite 3

Exemple 1.1.1. Considerons la fonction

u(x) =

0 si x < 01 si x ≥ 0

(1.1)

laquelle est connue sous le nom de fonction de Heaviside ou fonction echelonunitaire. En probabilites, cette fonction correspond a la fonction de repartitionde la constante 1. Elle est aussi utilisee pour indiquer que les valeurs possiblesd’une certaine variable aleatoire sont l’ensemble des nombres reels non negatifs.Par exemple, ecrire que

fX(x) = e−xu(x) pour tout x ∈ R

est equivalent a ecrire que

fX(x) =

0 si x < 0e−x si x ≥ 0

ou fX(x) est appelee fonction de densite de la variable aleatoire X.La fonction u(x) est definie pour tout x ∈ R. Dans d’autres contextes, la

valeur de u(0) est choisie autrement que ci-dessus. Par exemple, dans certainesapplications, u(0) = 1/2. De toute facon, la fonction echelon unitaire est continuepartout, excepte a l’origine, parce que (dans le cas present)

limx↓0

u(x) = 1 et limx↑0

u(x) = 0

Cependant, avec le choix u(0) = 1, on peut affirmer que u(x) est continue adroite en x = 0. ♦

Les definitions precedentes peuvent etre etendues au cas des fonctions avaleurs reelles de deux (ou plusieurs) variables. En particulier, la fonction f(x, y)est continue au point (x0, y0) si

limx→ x0

y → y0

f(x, y) = f( limx→x0

x, limy→y0

y)

Cette formule implique que la fonction f(x, y) est definie en (x0, y0) et que lalimite de f(x, y) lorsque (x, y) tend vers (x0, y0) existe et est egale a f(x0, y0).

Page 24: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

4 1 Revision du calcul differentiel et integral

1.2 Derivees

Definition 1.2.1. Supposons que la fonction f(x) est definie en x0 ∈ (a, b). Si

f ′(x0) := limx→x0

f(x)− f(x0)x− x0

≡ lim∆x→0

f(x0 +∆x)− f(x0)∆x

existe, on dit que la fonction f(x) est derivable au point x0 et que f ′(x0) estla derivee de f(x) (par rapport a x) en x0.

Remarques.(i) Pour que la fonction f(x) soit derivable en x0, elle doit au moins etre continueen ce point. Cependant, cette condition n’est pas suffisante, comme on peut s’enrendre compte dans l’exemple 1.2.1.(ii) Si la limite est prise lorsque x ↓ x0 (respectivement x ↑ x0) dans la definitionprecedente, le resultat (si la limite existe) est appele derivee a droite (respecti-vement derivee a gauche) de f(x) en x0, laquelle est parfois notee f ′(x+

0 ) (res-pectivement f ′(x−0 )). Si f ′(x0) existe, alors f ′(x+

0 ) = f ′(x−0 ).(iii) La derivee de f en un point arbitraire x est aussi notee d

dxf(x), ou Df(x).Si l’on pose y = f(x), alors

f ′(x0) ≡ dy

dx

∣∣∣∣x=x0

(iv) Si on derive f ′(x), on obtient la derivee seconde de la fonction f , noteef ′′(x) ou d2

dx2 f(x). De facon similaire, f ′′′(x) (ou f (3)(x), ou d3

dx3 f(x)) est laderivee troisieme de f , et ainsi de suite.(v) Une facon de trouver les valeurs de x qui maximisent ou minimisent lafonction f(x) est de calculer la derivee premiere f ′(x) et de resoudre l’equationf ′(x) = 0. Si f ′(x0) = 0 et f ′′(x0) < 0 (respectivement f ′′(x0) > 0), alorsf possede un maximum (respectivement un minimum) relatif en x = x0. Sif ′(x) 6= 0 pour tout x ∈ R, on peut verifier si la fonction f(x) est toujourscroissante ou decroissante dans l’intervalle d’interet.

Exemple 1.2.1. La fonction f(x) = |x| est continue partout, mais n’est pasderivable a l’origine, car on trouve que

f ′(x+0 ) = 1 et f ′(x−0 ) = −1

Page 25: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

1.2 Derivees 5

Exemple 1.2.2. La fonction u(x) definie dans l’exemple 1.1.1 n’est evidemmentpas derivable en x = 0, parce qu’elle n’est pas continue en ce point. ♦

Exemple 1.2.3. La fonction

FX(x) =

0 si x < 0x si 0 ≤ x ≤ 11 si x > 1

est definie et continue partout. Elle est aussi derivable partout, excepte en x = 0et x = 1. On trouve que la derivee F ′X(x) de FX(x), laquelle est notee fX(x) enprobabilites, est donnee par

fX(x) =

1 si 0 ≤ x ≤ 10 ailleurs

Notons que fX(x) est discontinue en x = 0 et x = 1. Plus precisement, 1 =F ′(0+) = F ′(1−) (tandis que F ′(0−) = F ′(1+) = 0). La fonction FX(x) est unexemple de fonction de repartition en probabilites. ♦Remarque. En utilisant la theorie des distributions, on peut ecrire que la deriveede la fonction de Heaviside u(x) est la fonction delta de Dirac δ(x) definie par

δ(x) =

0 si x 6= 0∞ si x = 0

(1.2)

La fonction delta de Dirac est en fait une fonction generalisee. Elle est, pardefinition, telle que ∫ ∞

−∞δ(x) dx = 1

On a aussi, si f(x) est continue en x = x0, que∫ ∞−∞

f(x)δ(x− x0) dx = f(x0)

Nous ne rappellerons pas les regles de derivation de base, sauf celle quis’applique a la derivee d’un quotient:

d

dx

f(x)g(x)

=g(x)f ′(x)− f(x)g′(x)

g2(x)si g(x) 6= 0

Remarque. Notons que cette formule peut aussi etre obtenue en derivant le pro-duit f(x)h(x), ou h(x) := 1/g(x).

Page 26: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

2

Probabilites elementaires

Ce premier chapitre consacre aux probabilites contient les definitions et conceptsde base, tels qu’ils peuvent etre enseignes dans un cours de niveau collegial,c’est-a-dire preuniversitaire, sur ce sujet. Cependant, la gamme de problemesqui peuvent etre composes en utilisant les formules des probabilites elementairesest tres etendue, particulierement en analyse combinatoire, et il est necessairede faire beaucoup d’exercices pour bien assimiler ces notions de base.

2.1 Experiences aleatoires

Une experience aleatoire est une experience qui, au moins theoriquement,peut etre repetee aussi souvent que l’on veut et dont on ne peut pas predirele resultat; par exemple, le jet d’un de a jouer. Chaque fois que l’experienceest repetee, un resultat elementaire est obtenu. L’ensemble des resultatselementaires d’une experience aleatoire est appele espace echantillon; on lenotera Ω.

Les espaces echantillons peuvent etre discrets ou continus.

(a) Espaces echantillons discrets:(i) si le nombre de resultats possibles est fini. Par exemple, on lance un de et

l’on observe le nombre qui apparaıt; alors Ω = 1, 2, . . . , 6.(ii) Si le nombre de resultats possibles est infini denombrable; cela signifie

qu’il y a un nombre infini de resultats possibles mais qu’on peut associer unnombre naturel a chaque resultat. Par exemple, on lance un de jusqu’a ce qu’onobtienne le chiffre “6” et on compte le nombre de lancers effectues avant d’obtenirce premier “6”; alors on a: Ω = 0, 1, 2, . . .. Cet ensemble est equivalent a

Page 27: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

36 2 Probabilites elementaires

l’ensemble des entiers naturels 1, 2, . . . puisque l’on peut associer le nombrenaturel k + 1 a tout element k = 0, 1, . . . de Ω.(b) Espaces echantillons continus: si l’espace echantillon contient un ouplusieurs intervalles; l’espace echantillon est alors infini non denombrable. Parexemple, on lance un de jusqu’a ce que l’on obtienne un “6” et l’on calcule letemps que cela a pris pour obtenir ce premier “6”. Dans ce cas, on a: Ω = t ∈R : t > 0 (ou Ω = (0,∞)).

2.2 Evenements

Definition 2.2.1. Un evenement est un ensemble de resultats elementaires.C’est-a-dire que c’est un sous-ensemble de l’espace echantillon Ω. En particulier,chaque resultat elementaire est un evenement, de meme que l’espace echantillonlui-meme.

Remarques.(i) Un resultat elementaire est parfois appele evenement simple, tandis qu’unevenement compose est constitue d’au moins deux resultats elementaires.(ii) On designera les evenements par A, B, C, etc.

Definition 2.2.2. On dit que deux evenements, A et B, sont incompatibles(ou mutuellement exclusifs) si leur intersection est vide. On ecrit alors:A ∩ B = ∅.

Exemple 2.2.1. Considerons l’experience qui consiste a lancer un de a jouer et aobserver le nombre qui apparaıt. On a: Ω = 1, 2, 3, 4, 5, 6. Soit les evenements

A = 1, 2, 4, B = 2, 4, 6 et C = 3, 5

On a:A ∪B = 1, 2, 4, 6, A ∩B = 2, 4 et A ∩ C = ∅

Donc, A et C sont des evenements incompatibles. De plus, on peut ecrire queA′ = 3, 5, 6, ou le symbole ′ designe le complement de l’evenement. ♦

Pour representer un espace echantillon et des evenements, on utilise souventun diagramme de Venn comme dans la figure 2.1. En general, pour troisevenements on a le diagramme de la figure 2.2, a la page 37.

Extrait de la publication

Page 28: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

2.3 Probabilite 37

A B C

1 24

6 3 5

Ω

Fig. 2.1. Diagramme de Venn pour l’exemple 2.2.1

A B

C

ω

1

2

3 4

5 6

78

ω = A B C1

ω = A B C'

ω = A B' C

ω = A' B C

ω = A B' C'

ω = A' B C'

ω = A' B' C

ω = A' B' C'

2

3

4

5

6

7

8

U U

U U

U U

U U

UU

UU

UU

UU

Ω

ω

ω ω

ω ωω

ω

Fig. 2.2. Diagramme de Venn pour trois evenements quelconques

2.3 Probabilite

Definition 2.3.1. La probabilite d’un evenement A ⊆ Ω, notee P [A], est unnombre reel obtenu en appliquant a A la fonction P qui possede les proprietessuivantes:(i) 0 ≤ P [A] ≤ 1;(ii) si A = Ω, alors P [A] = 1;(iii) si A = A1∪A2∪ . . .∪An, ou A1, . . . , An sont des evenements incompatibles,alors on peut ecrire que

P [A] =n∑i=1

P [Ai] pour n = 2, 3, . . . ,∞ (2.1)

Remarques.(i) En fait, il suffit de poser que P [A] ≥ 0 dans la definition, car on peut montrerque

Page 29: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

38 2 Probabilites elementaires

P [A] + P [A′] = 1 (2.2)

ce qui implique que P [A] = 1− P [A′] ≤ 1.(ii) On a aussi les resultats suivants:

P [∅] = 0 et P [A] ≤ P [B] si A ⊂ B (2.3)

(iii) La definition de la probabilite d’un evenement est motivee par la notionde frequence relative. Par exemple, supposons que l’on effectue un grandnombre de fois l’experience aleatoire qui consiste a lancer un de, et que l’ondesire obtenir la probabilite d’un des resultats possibles de cette experience, soitles entiers 1, 2, . . . , 6. La frequence relative du resultat k est la quantite fk(n)definie par

fk(n) =Nk(n)n

(2.4)

ou Nk(n) est le nombre de fois que le resultat possible k s’est produit au coursde n lancers du de. On peut ecrire que

0 ≤ fk(n) ≤ 1 pour k = 1, 2, . . . , 6 (2.5)

et que6∑

k=1

fk(n) = 1 (2.6)

En effet, on a evidemment: Nk(n) ∈ 0, 1, . . . , n, de sorte que fk(n) ∈ [0, 1], et

6∑k=1

fk(n) =N1(n) + . . .+N6(n)

n=n

n= 1 (2.7)

De plus, si A est un evenement qui contient deux resultats possibles, par exemple“1” et “2”, alors

fA(n) = f1(n) + f2(n) (2.8)

car les resultats 1 et 2 ne peuvent pas se produire lors du meme lancer du de.Finalement, la probabilite du resultat k peut theoriquement etre obtenue en

prenant la limite de fk(n) lorsque le nombre n de lancers tend vers l’infini:

P [k] = limn→∞

fk(n) (2.9)

Puisque la probabilite d’un evenement peut etre exprimee en fonction de lafrequence relative de cet evenement, il est naturel que les proprietes que les

Extrait de la publication

Page 30: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

3

Variables aleatoires

Les elements d’un espace echantillon peuvent prendre diverses formes: nombresreels, mais aussi marque d’un objet, couleur, “bon” ou “defectueux”, etc. Commeil est plus facile de travailler avec des nombres reels, dans ce chapitre nous allonstransformer tous les resultats elementaires en valeurs numeriques, a l’aide devariables aleatoires. Nous allons voir les cas particuliers les plus importants etdefinir les principales fonctions qui caracterisent les variables aleatoires.

3.1 Introduction

Definition 3.1.1. Une variable aleatoire est une fonction a valeurs numeri-ques (reelles) definie sur un espace echantillon.

Exemple 3.1.1.(i) Supposons qu’on lance une piece de monnaie; la fonction X qui associe lenombre 1 au resultat “face” et le nombre 0 au resultat “pile” est une variablealeatoire.(ii) Supposons maintenant qu’on lance un de; la fonction X qui associe a chaqueresultat elementaire le nombre obtenu (de sorte que X est la fonction identitedans ce cas) est aussi une variable aleatoire. ♦

Exemple 3.1.2. Considerons l’experience aleatoire qui consiste a observer letemps T qu’une personne doit attendre a un guichet automatique avant de pou-voir s’en servir; la fonction T est une variable aleatoire. ♦

Page 31: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

72 3 Variables aleatoires

3.1.1 Cas discret

Definition 3.1.2. Une variable aleatoire est dite de type discret si le nombrede valeurs differentes qu’elle peut prendre est fini ou infini denombrable.

Definition 3.1.3. La fonction pX qui associe a chaque valeur possible de lavariable aleatoire (discrete) X la probabilite de cette valeur est appelee fonctionde probabilite ou masse de probabilite de X.

Soit x1, x2, . . . l’ensemble des valeurs possibles de la variable aleatoirediscrete X; la fonction pX possede les proprietes suivantes:(i) pX(xk) ≥ 0 pour tout k;(ii)

∑∞k=1 pX(xk) = 1.

Exemple 3.1.1 (suite). (i) Si la piece de monnaie est bien equilibree (nontruquee), on peut ecrire que

x 0 1pX(x) 1/2 1/2

(ii) De meme, si le de est bien equilibre, alors on a le tableau suivant:

x 1 2 3 4 5 6pX(x) 1/6 1/6 1/6 1/6 1/6 1/6

Definition 3.1.4. La fonction FX qui associe a chaque nombre reel x la proba-bilite P [X ≤ x] que la variable aleatoire X prenne une valeur inferieure ou egalea ce nombre est appelee fonction de repartition de X. On a:

FX(x) =∑xk≤x

pX(xk) (3.1)

Remarque. La fonction FX est non decroissante et continue a droite.

Exemple 3.1.1 (suite). (i) Dans le cas de la piece de monnaie, on trouvefacilement (si P [face] = 1/2) que

x 0 1FX(x) 1/2 1

Page 32: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

3.1 Introduction 73

Remarque. De facon plus complete, on peut ecrire que

FX(x) =

0 si x < 0

1/2 si 0 ≤ x < 11 si x ≥ 1

ou x est un nombre reel quelconque.(ii) Si le de est bien equilibre, alors on deduit de la fonction pX(x) le tableausuivant:

x 1 2 3 4 5 6FX(x) 1/6 1/3 1/2 2/3 5/6 1

(voir la figure 3.1). ♦

0

0.2

0.4

0.6

0.8

1

1 2 3 4 5 6 7x

Fig. 3.1. Fonction de repartition de la variable aleatoire dans l’exemple 3.1.1 (ii)

3.1.2 Cas continu

Definition 3.1.5. Une variable aleatoire qui peut prendre un nombre infini nondenombrable de valeurs est dite variable aleatoire de type continu.

Exemple 3.1.2 (suite). Puisque l’ensemble des valeurs possibles de la variablealeatoire T de l’exemple 3.1.2 est l’intervalle (0,∞), T est une variable aleatoirecontinue. ♦Remarque. On suppose dans l’exemple ci-dessus que la personne ne peut pasarriver et commencer immediatement a se servir du guichet, sinon T serait unevariable aleatoire de type mixte, qui est une variable a la fois discrete et continue.Nous n’insisterons pas sur ce type de variable aleatoire dans ce manuel.

Extrait de la publication

Page 33: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

74 3 Variables aleatoires

Definition 3.1.6. La fonction de densite (de probabilite) d’une variablealeatoire continue X est une fonction fX qui possede les proprietes suivantes:(i) fX(x) ≥ 0 pour tout nombre reel x;(ii)

∫∞−∞ fX(x) dx = 1.

La fonction de densite est differente de la fonction de probabilite pX d’une va-riable aleatoire discrete. En effet, fX(x) ne donne pas la probabilite que la varia-ble aleatoire X prenne la valeur x. De plus, on peut avoir l’inegalite fX(x) > 1.En fait, on peut ecrire que

fX(x)ε ' P[x− ε

2≤ X ≤ x+

ε

2

]ou ε > 0 est petit. Ainsi, fX(x) ε egale environ la probabilite que X prenne unevaleur dans un intervalle de longueur ε autour de x.

Definition 3.1.7. La fonction de repartition FX d’une variable aleatoirecontinue X est definie par

FX(x) = P [X ≤ x] =∫ x

−∞fX(u) du (3.2)

On deduit de cette definition que

P [X = x] = P [x ≤ X ≤ x] = P [X ≤ x]− P [X < x]

=∫ x

−∞fX(u) du−

∫ x−

−∞fX(u) du = 0

pour tout nombre reel x, ou x− signifie que le point x n’est pas inclus dansl’integrale. C’est-a-dire que, avant d’effectuer l’experience aleatoire, la proba-bilite que l’on obtienne une valeur particuliere d’une variable aleatoire continueest nulle. Ainsi, si l’on prend un point au hasard dans l’intervalle [0, 1], on peutaffirmer que le point que l’on obtiendra n’avait, a priori, aucune chance d’etrechoisi!

On deduit aussi de la definition que

d

dxFX(x) = fX(x) (3.3)

pour tout x ou FX(x) est derivable.

Extrait de la publication

Page 34: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

3.1 Introduction 75

Remarques.(i) Si X est une variable aleatoire continue, alors sa fonction de repartitionFX est aussi continue. Cependant, une fonction continue n’est pas necessaire-ment derivable en tout point. De plus, la fonction de densite de X peut etre unefonction discontinue, comme dans l’exemple suivant. En fait, fX est une fonctioncontinue par morceaux, c’est-a-dire une fonction ayant au plus une nombre finide points de saut (voir la page 2). On dit que fX possede une point de saut en x0

si les deux limites limx↓x0 fX(x) et limx↑x0 fX(x) existent, mais sont differentes.

(ii) Toute variable aleatoire X possede une fonction de repartition FX . Poursimplifier la presentation, nous pourrions theoriquement definir la fonction dedensite fX comme etant la derivee de FX , que X soit une variable aleatoirede type discret, continu, ou mixte. Nous avons mentionne dans la remarqueprecedente que lorsque FX est une fonction continue, sa derivee est une fonctioncontinue par morceaux. Cependant, dans le cas d’une variable aleatoire discrete,la fonction de repartition FX est une fonction en escalier, comme dans la fi-gure 3.1. La derivee d’une fonction en escalier est egale a zero partout, sauf auxpoints de saut xk, k = 1, 2, . . . On peut ecrire que

d

dxFX(x) =

∞∑k=1

P [X = xk]δ(x− xk)

ou P [X = xk] = limx↓xk FX(x) − limx↑xx FX(x), et δ(·) est la fonction delta deDirac (voir la page 5). De facon similaire, la fonction de densite d’une variablealeatoire de type mixte fait intervenir la fonction delta de Dirac. Pour eviterd’utiliser cette fonction generalisee, la grande majorite des auteurs prefere con-siderer les variables (et vecteurs) aleatoires discretes et continues separement.Dans le cas discret, on definit la fonction de probabilite pX(xk) = P [X = xk],comme nous l’avons fait ci-dessus, plutot que la fonction de densite.

Exemple 3.1.3. Supposons que le temps d’attente (en minutes) pour etre servia un guichet dans une banque est une variable aleatoire continue X qui possedela fonction de densite (voir la figure 3.2)

fX(x) =

0 si x < 0

1/2 si 0 ≤ x < 13/(2x4) si x ≥ 1

Notons que la fonction fX est bien une fonction de densite, car

Page 35: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

4

Vecteurs aleatoires

On peut generaliser la notion de variable aleatoire au cas de deux (ou plusieurs)dimensions. Dans ce manuel, nous n’allons considerer en detail que les vecteursaleatoires de dimension 2. Cependant, l’extension des definitions au cas multi-dimensionnel est immediate. Nous allons aussi voir dans ce chapitre le theoremele plus important de la theorie des probabilites, soit le theoreme central limite.Ce chapitre complete la partie du manuel consacree au calcul des probabilites.

4.1 Vecteurs aleatoires discrets

La fonction de probabilite conjointe

pX,Y (xj , yk) := P [X = xj ∩ Y = yk] ≡ P [X = xj , Y = yk]

du couple de variables aleatoires discretes (X,Y ), dont les valeurs possibles sontun ensemble (fini ou infini denombrable) de couples (xj , yk) dans le plan, possedeles proprietes suivantes:(i) pX,Y (xj , yk) ≥ 0 ∀(xj , yk);

(ii)∑∞

j=1

∑∞k=1 pX,Y (xj , yk) = 1.

La fonction de repartition conjointe FX,Y est definie par

FX,Y (x, y) = P [X ≤ x ∩ Y ≤ y] =∑xj≤x

∑yk≤y

pX,Y (xj , yk) (4.1)

Exemple 4.1.1. Considerons la fonction de probabilite conjointe pX,Y qui estdonnee par le tableau suivant:

Extrait de la publication

Page 36: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

144 4 Vecteurs aleatoires

y\ x −1 0 10 1/16 1/16 1/161 1/16 1/16 2/162 2/16 1/16 6/16

On peut verifier que la fonction pX,Y possede les deux proprietes des fonctionsde probabilite conjointes enoncees ci-dessus. De plus, etant donne que seuls lescouples (−1, 0) et (0, 0) sont tels que xj ≤ 0 et yk ≤ 1

2 , on peut ecrire que

FX,Y(0, 1

2

)= pX,Y (−1, 0) + pX,Y (0, 0) =

18

Lorsqu’on fait la somme de la fonction pX,Y sur toutes les valeurs possibles deY (respectivement X), on obtient ce que l’on appelle fonction de probabilitemarginale de X (respectivement Y ). C’est-a-dire que

pX(xj) =∞∑k=1

pX,Y (xj , yk) et pY (yk) =∞∑j=1

pX,Y (xj , yk) (4.2)

Exemple 4.1.1 (suite). On trouve que

x −1 0 1 Σ

pX(x) 1/4 3/16 9/16 1

ety 0 1 2 Σ

pY (y) 3/16 1/4 9/16 1

Definition 4.1.1. Deux variables aleatoires discretes, X et Y , sont dites inde-pendantes si et seulement si

pX,Y (xj , yk) = pX(xj)pY (yk) pour tout couple (xj , yk) (4.3)

Exemple 4.1.1 (suite). On a: pX,Y (−1, 0) = 1/16, pX(−1) = 1/4 et pY (0) =3/16. Puisque 1/16 6= (1/4)(3/16), X et Y ne sont pas des variables aleatoiresindependantes. ♦

Page 37: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

4.1 Vecteurs aleatoires discrets 145

Finalement, soit AX un evenement defini en fonction de la variable aleatoireX; par exemple, AX = X ≥ 0. On definit la fonction de probabilite con-ditionnelle de Y , etant donne l’evenement AX , par

pY (y | AX) ≡ P [Y = y | AX ] =P [Y = y ∩AX ]

P [AX ]si P [AX ] > 0 (4.4)

De meme, on definit

pX(x | AY ) ≡ P [X = x | AY ] =P [X = x ∩AY ]

P [AY ]si P [AY ] > 0 (4.5)

Remarque. Si X et Y sont des variables aleatoires discretes independantes, alorson peut ecrire que

pY (y | AX) ≡ pY (y) et pX(x | AY ) ≡ pX(x) (4.6)

Exemple 4.1.1 (suite). Soit AX = X = 1; on a:

pY (y | X = 1) =P [Y = y ∩ X = 1]

P [X = 1]=pX,Y (1, y)pX(1)

=169pX,Y (1, y) =

1/9 si y = 02/9 si y = 12/3 si y = 2

Exemple 4.1.2. Une boıte contient six transistors, dont un de marque A, deuxde marque B et trois de marque C. Deux transistors sont pris au hasard etavec remise. Soit X (respectivement Y ) le nombre de transistors de marque A(respectivement B) parmi les deux tires au hasard.(a) Calculer la fonction de probabilite conjointe pX,Y (x, y).(b) Calculer les fonctions de probabilite marginales.(c) Les variables aleatoires X et Y sont-elles independantes? Justifier.(d) Calculer la probabilite P [X = Y ].

Solution. (a) Les valeurs possibles du couple (X,Y ) sont: (0, 0), (0, 1), (1, 0),(1, 1), (0, 2) et (2, 0). Puisque les transistors sont pris avec remise, de sorte queles tirages sont independants, on obtient le tableau suivant:

Page 38: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

146 4 Vecteurs aleatoires

y\ x 0 1 20 1/4 1/6 1/361 1/3 1/9 02 1/9 0 0

Par exemple, on a:pX,Y (0, 0) = (1/2)(1/2) = 1/4

(par independance des tirages) et

pX,Y (1, 0) inc.= P [A1 ∩ C2] + P [C1 ∩A2]ind.,sym.

= 2(1/6)(1/2) = 1/6

ou Ak: un transistor de marque A est obtenu lors du ke tirage, etc. On peutverifier que la somme de toutes les fractions dans le tableau egale 1.Remarque. En fait, les variables aleatoires X et Y presentent des distributionsbinomiales de parametres n = 2 et p = 1/6, et de parametres n = 2 et p = 1/3,respectivement.

(b) A partir du tableau en (a), on trouve que

x 0 1 2 Σ

pX(x) 25/36 5/18 1/36 1

ety 0 1 2 Σ

pY (y) 4/9 4/9 1/9 1

(c) Les variables aleatoires X et Y ne sont pas independantes, car, par exemple,

pX,Y (2, 2) = 0 6= pX(2)pY (2) = (1/36)(1/9)

Remarque. Les variables aleatoires X et Y ne pouvaient pas etre independantes,car la relation 0 ≤ X + Y ≤ 2 doit etre verifiee.

(d) On calcule

P [X = Y ] = pX,Y (0, 0) + pX,Y (1, 1) + pX,Y (2, 2) =14

+19

+ 0 =1336

Page 39: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

4.2 Vecteurs aleatoires continus 147

4.2 Vecteurs aleatoires continus

Soit X et Y deux variables aleatoires continues; la generalisation de la notion defonction de densite au cas de dimension 2 est la fonction de densite conjointefX,Y du couple (X,Y ) qui possede les proprietes suivantes:(i) fX,Y (x, y) ≥ 0 pour tout couple (x, y);

(ii)∫∞−∞

∫∞−∞ fX,Y (x, y) dxdy = 1.

Remarque. En n dimensions, un vecteur aleatoire continu possede une fonctionde densite conjointe definie sur Rn (ou un sous-ensemble infini non denombrablede Rn). Cette fonction doit etre non negative et son integrale sur Rn doit egaler 1.

La fonction de repartition conjointe est definie par

FX,Y (x, y) = P [X ≤ x, Y ≤ y] =∫ y

−∞

∫ x

−∞fX,Y (u, v) dudv (4.7)

Exemple 4.2.1. Considerons la fonction fX,Y definie par

fX,Y (x, y) = c xye−x2−y2 pour x ≥ 0, y ≥ 0

ou c > 0 est une constante. On a: (i) fX,Y (x, y) ≥ 0 pour tout couple (x, y) avecx ≥ 0 et y ≥ 0 (fX,Y (x, y) = 0 ailleurs) et (ii)∫ ∞

0

∫ ∞0

c xye−x2−y2dxdy = c

∫ ∞0

xe−x2dx

∫ ∞0

ye−y2dy

= c

[−e−x2

2

∣∣∣∣∣∞

0

][−e−y2

2

∣∣∣∣∣∞

0

]= c(1/2)(1/2) = c/4

Donc, cette fonction est une fonction de densite conjointe valable si et seulementsi la constante c egale 4.

La fonction de repartition conjointe du couple (X,Y ) est donnee par

FX,Y (x, y) =∫ y

0

∫ x

04uve−u

2−v2dudv

=∫ x

02ue−u

2du

∫ y

02ve−v

2dv

=[−e−u2

∣∣∣x0

] [−e−v2

∣∣∣y0

]= (1− e−x2

)(1− e−y2)

Page 40: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

5

Statistique descriptive et estimation

Avec ce chapitre, nous commencons l’etude de la statistique a proprement parler.D’abord, nous allons voir les principaux concepts de ce que l’on appelle statis-tique descriptive. Cette matiere se trouve souvent avant la partie probabilitesdans les manuels de probabilites et statistique pour scientifiques et ingenieurs,car elle ne fait pas appel aux notions de probabilites. Toutefois, il nous semblepreferable de presenter la statistique descriptive immediatement avant le debutde la statistique mathematique de base. Ainsi, il est plus facile de bien fairela distinction entre des quantites calculees en utilisant des donnees que l’on arecueillies et les quantites theoriques correspondantes.

Dans ce chapitre, nous verrons comment estimer les parametres incon-nus qui apparaissent dans les fonctions de probabilite ou les fonctions dedensite des variables aleatoires, en particulier les parametres des differentsmodeles que nous avons etudies au chapitre 3, par exemple les distributionsde Poisson, exponentielle, normale, etc. Nous allons aussi presenter les distri-butions d’echantillonnage les plus importantes, lesquelles sont des distributionsparticulieres tres utilisees en statistique. Enfin, nous terminerons ce chapitre parla notion d’intervalles de confiance pour les parametres inconnus.

5.1 Statistique descriptive

Definition 5.1.1. Un echantillon aleatoire de taille n d’une variable alea-toire X est un ensemble X1, . . . , Xn de variables aleatoires independantes et dontla distribution est identique a celle de X. C’est-a-dire que Xk possede la memefonction de repartition que X, pour k = 1, . . . , n. La variable aleatoire X estaussi appelee population et chaque Xk est une observation de X.

Page 41: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

206 5 Statistique descriptive et estimation

Remarque. Une valeur prise par une observation Xk est un nombre reel xk, appeledonnee ou observation particuliere de X.

Dans cette section, nous allons presenter quelques outils qui permettent devisualiser un ensemble de donnees x1, . . . , xn qui ont ete recueillies. Nous ap-pellerons cet ensemble de donnees echantillon ou bien echantillon aleatoireparticulier de X. Nous allons aussi definir des quantites qui peuvent etre cal-culees avec ces donnees. Toutes ces quantites ont leur equivalent dans le casd’observations X1, . . . , Xn de la variable aleatoire X.

5.1.1 Tableaux d’effectifs ou de frequences

Supposons que l’on s’interesse a la duree de vie (en heures) des ampouleselectriques d’une certaine marque. On prend 20 ampoules au hasard et on mesureleur duree de vie; on obtient:

115 2456 534 3915 1046 1916 1117 1303 865 340575 3563 4413 500 2096 149 1511 2244 695 1021

En se servant de ces 20 donnees, on peut construire un tableau d’effectifs dela facon suivante: on prend un intervalle [a, b] qui couvre l’ensemble des donneeset on le divise en k (5 ≤ k ≤ 20, en general) sous-intervalles, appeles classes,de meme longueur, disjoints et exhaustifs. On associe a chaque classe le nombrede donnees qu’elle compte, appele son effectif.

Remarques.(i) Parfois, au lieu d’indiquer la classe, on donne uniquement son point milieu,ou bien la limite inferieure des classes.(ii) On peut aussi construire un tableau d’effectifs cumulatifs, de pour-centages (en divisant chaque effectif par le nombre total de donnees) et depourcentages cumulatifs.(iii) Les limites des classes devraient avoir le meme nombre de chiffres significatifsque les donnees elles-memes.

Exemple 5.1.1. La plus petite valeur parmi les 20 donnees ci-dessus est 115,et la plus grande 4413. Alors, si l’on divise l’intervalle [0, 5000] en cinq classesde longueur 1000, on obtient le tableau suivant:

Page 42: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

5.1 Statistique descriptive 207

Classe Effectif Effec. cumulatif Pourcentage Pourc. cumulatif

[0,1000) 8 8 40 40[1000,2000) 6 14 30 70[2000,3000) 3 17 15 85[3000,4000) 2 19 10 95[4000,5000) 1 20 5 100

Remarque. Le choix de la limite inferieure, a, et du nombre de classes a beaucoupd’importance, surtout si le nombre total de donnees est petit.

Une autre facon de representer les donnees est au moyen d’un diagrammede points obtenu en placant chaque valeur differente recueillie sur l’axe des xet, au-dessus de celle-ci, un point chaque fois que l’on a obtenu cette valeur.Notons que, dans le cas des donnees ci-dessus, aucune valeur n’a ete obtenueplus d’une fois.

Finalement, un tableau “tige-et-feuille”, aussi appele histogramme deTukey, est construit en divisant chaque donnee en deux parties; par exemple, lepremier ou les deux premiers chiffres constituent la tige et le reste (ou le chiffresuivant) la feuille.

Exemple 5.1.1 (suite). Si l’on prend le premier chiffre (et en ecrivant que 115= 0115) comme tige, on obtient:

0 || 115, 149, 340, 500, 534, 575, 695, 8651 || 021, 046, 117, 303, 511, 9162 || 096, 244, 4563 || 563, 9154 || 413

ou

0 || 113555681 || 0013592 || 0243 || 594 || 4

Remarque. En regardant (de cote) un tableau tige-et-feuille, on peut avoir uneidee de la distribution de la variable aleatoire qui a genere les donnees.

5.1.2 Representations graphiques

Definition 5.1.2. Un polygone d’effectifs est obtenu en faisant le graphiquedes effectifs en fonction des points milieux des classes et en reliant les points dugraphique par des segments de droite.

Extrait de la publication

Page 43: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

208 5 Statistique descriptive et estimation

Remarques.(i) On rajoute deux classes (vides) aux extremites pour fermer le polygone.(ii) On a aussi des polygones d’effectifs cumulatifs, de pourcentages et depourcentages cumulatifs.

Exemple 5.1.1 (suite). En utilisant les donnees de l’exemple 5.1.1, on construitle polygone d’effectifs de la figure 5.1. ♦

Effectif

Point milieu

2

0 1000

Fig. 5.1. Polygone d’effectifs construit en se servant des donnees de l’exemple 5.1.1

Definition 5.1.3. Un histogramme, aussi appele diagramme en barres, estobtenu en placant un rectangle au-dessus de chaque classe; la hauteur du rec-tangle est egale a l’effectif de la classe.

Exemple 5.1.1 (suite). Avec les donnees de l’exemple 5.1.1, on obtientl’histogramme de la figure 5.2. ♦

Effectif

Classe

2

0 1000

Fig. 5.2. Histogramme obtenu avec les donnees de l’exemple 5.1.1

Page 44: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

5.1 Statistique descriptive 209

5.1.3 Quantites calculees en utilisant les donnees

Definition 5.1.4. Supposons que l’on dispose de n donnees: x1, x2, . . . , xn. Lamoyenne de l’echantillon est definie par

x =x1 + x2 + . . .+ xn

n=

n∑i=1

xin

(5.1)

Remarques.(i) La quantite x est la moyenne arithmetique des donnees. Dans le cas d’unechantillon aleatoire de X, la quantite equivalente X sert a estimer la moyennede la variable aleatoire X qui a genere les observations X1, X2, . . . , Xn.(ii) On peut associer un poids pi a chaque donnee, de facon que pi ≥ 0 pourtout i et que

∑ni=1 pi = 1; alors l’expression

∑ni=1 pixi est appelee moyenne

ponderee des xi.(iii) Lorsqu’on ne dispose que d’un tableau d’effectifs, on peut approcher lamoyenne de l’echantillon en supposant que toutes les donnees dans une classequelconque sont egales au point milieu de cette classe.

La moyenne d’un echantillon est une mesure de position centrale. On definitmaintenant une mesure de dispersion des donnees autour de leur moyenne.

Definition 5.1.5. La variance de l’echantillon est donnee par

s2 =n∑i=1

(xi − x)2

n− 1(5.2)

De plus, l’ecart-type de l’echantillon est s =√s2.

Remarques.(i) Certains auteurs definissent la variance de l’echantillon par

∑ni=1(xi− x)2/n.

La raison pour laquelle on divise, en general, la somme des carres par n−1 plutotque par n est qu’en utilisant X, dans la definition equivalente pour le cas d’unechantillon aleatoire de X, on perd un degre de liberte. En effet, soit X1, . . . , Xn

n observations independantes de X; si l’on nous donne n− 1 observations et lamoyenne (ou la somme) des n observations, alors on peut en deduire la valeurde la ne observation.

Extrait de la publication

Page 45: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

6

Tests d’hypotheses

La theorie des tests d’hypotheses est l’un des sujets les plus importants en statis-tique mathematique. D’abord, les tests d’ajustement permettent d’affirmer si lesdonnees que l’on a recueillies semblent provenir d’une distribution donnee, parexemple d’une distribution normale. Ensuite, si la distribution normale est ef-fectivement un modele qui semble realiste pour les donnees, on peut vouloirtester des hypotheses au sujet des parametres de cette distribution. Nous allonsaussi voir, en particulier, comment tester si la probabilite de succes dans uneserie d’essais de Bernoulli est egale a une constante donnee ou non, et si deuxvariables sont independantes.

Notons que l’on ne peut pas prouver qu’une hypothese particuliere est vraieen se servant d’un test d’hypotheses. Il y a toujours un risque de prendre lamauvaise decision en se basant sur les donnees. Par contre, lorsque le risque decommettre une erreur est inferieur a 1 % en rejetant une certaine hypothese, parexemple, on peut raisonnablement conclure que cette hypothese est fausse. Detoute facon, lorsqu’on cherche un modele pour des donnees, il est en pratiqueimpossible de trouver le modele exact si celui-ci est une distribution continue.Ainsi, en recueillant suffisamment d’observations d’une variable aleatoire con-tinue, on peut arriver a conclure que n’importe quelle distribution que l’on pro-pose pour cette variable n’est pas la bonne. De meme, il est impossible que lamoyenne d’une distribution normale quelconque soit exactement egale a une con-stante donnee, car la moyenne est un parametre qui peut theoriquement prendren’importe quelle valeur reelle.

Page 46: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

286 6 Tests d’hypotheses

6.1 Introduction et terminologie

Soit x1, x2, . . . , xn un echantillon aleatoire particulier d’une variable aleatoire Xqui possede une fonction de densite (ou une fonction de probabilite) fX . On adeux hypotheses concernant la fonction fX . Ces hypotheses peuvent etre ausujet de fX elle-meme ou encore a propos d’un parametre qui apparaıt dans lafonction fX . Apres avoir calcule une statistique T , c’est-a-dire une fonction desdonnees, on accepte une hypothese et on rejette l’autre.

Pour tester l’hypothese nulle H0 contre la contre-hypothese H1 (aussiappelee hypothese alternative par certains auteurs), on definit un test a l’aided’une region de rejet C: ainsi, si T (x1, . . . , xn) ∈ C, alors on rejette H0 (et onaccepte H1), tandis que si T (x1, . . . , xn) /∈ C, alors on ne rejette pas (donc, onaccepte) H0. Le complement de C est appele region d’acceptation du test.

Soit θ un parametre inconnu qui apparaıt dans la fonction fX . Une hypothesede la forme

H0: θ = θ0 (6.1)

est une hypothese simple, tandis que

H1: θ 6= θ0 (6.2)

est une hypothese multiple ou composite. Dans le cadre de ce livre (sauf dansl’exemple suivant), l’hypothese H0 sera toujours une hypothese simple, tandisque H1 sera toujours une hypothese multiple.

Exemple 6.1.1.(i) Supposons qu’on possede une piece de monnaie truquee, pour laquelleP [face] = 0,7 ou bien P [pile] = 0,7. Dans ce cas, on a deux hypothesesalternatives simples:

H0: p = 0,7 et H1: p = 0,3

ou p est la probabilite de l’evenement face. En lancant la piece de monnaieun assez grand nombre de fois, nous pourrons decider quelle hypothese est vraie(ou, en fait, laquelle semble vraie).

(ii) Si l’on croit qu’une piece de monnaie est truquee, alors on peut tester leshypotheses suivantes:

H0: p = 12 contre H1: p 6= 1

2

Page 47: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

6.1 Introduction et terminologie 287

(iii) Supposons qu’une certaine machine produit, en moyenne, c articles par jouret que la production journaliere X d’une nouvelle machine, qui pourrait rem-placer la premiere, est une variable aleatoire qui presente (approximativement)une distribution N(µ, σ2). On peut vouloir tester

H0: µ ≤ c contre H1: µ > c

Remarque. Dans le cas des tests au sujet des parametres d’une variable aleatoire,l’hypothese nulle est generalement celle que l’on croit fausse (particulierementdans le cas d’un test unilateral, comme ci-dessus). Par consequent, on essaie dela rejeter. C’est pourquoi on prefere souvent dire que l’on ne peut pas rejeterH0, plutot que de dire que l’on accepte H0.

6.1.1 Les especes d’erreurs

Il y a deux especes d’erreurs que l’on peut commettre:(a) erreur de premiere espece: accepter H1 lorsque H0 est vraie; c’est-a-direrejet errone de H0;(b) erreur de seconde espece: accepter H0 lorsque H1 est vraie; c’est-a-direacceptation erronee de H0.

On definit les parametres α et β comme suit:

α = P [Erreur de premiere espece] = P [Rejeter H0 | H0 est vraie] (6.3)

et

β = P [Erreur de deuxieme espece] = P [Accepter H0 | H0 est fausse] (6.4)

On appelle α seuil (de signification) ou niveau du test. De plus, la quantite1−β est appelee puissance du test. Finalement, le graphique de β(θ) en fonctionde θ est appele courbe ou abaque caracteristique du test de H0: θ = θ0 contreH1: θ 6= θ0 (ou H1: θ > θ0, etc.). Notons que β(θ0) = 1− α.

Remarques.(i) La quantite β depend de la taille n de l’echantillon aleatoire: plus n augmenteet plus β diminue. De plus, contrairement a α, la valeur de β n’est pas uniquedans un probleme donne mais depend de l’hypothese particuliere H1 que l’onsuppose vraie. Il y a en fait une infinite d’hypotheses particulieres H1, tandisque H0 est unique (dans le cas ou H0 est une hypothese simple).

Page 48: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

288 6 Tests d’hypotheses

(ii) La notation des probabilites conditionnelles du chapitre 2 a ete utilisee dansla definition des parametres α et β; cependant, nous n’aurons jamais a calculer laprobabilite de l’evenement H0 est vraie. Il s’agit simplement d’une propositionque l’on suppose vraie dans le calcul du risque de premiere espece. Il en est dememe pour β.(iii) Avec le choix que nous avons fait au sujet de la formulation des hypotheses,commettre une erreur de premiere espece est generalement plus grave que com-mettre une erreur de seconde espece. Ainsi, dans l’exemple 6.1.1 (iii), si l’onrejette H0 de facon erronee, alors on recommandera d’acheter une nouvelle ma-chine, laquelle aura une production inferieure (en moyenne) a celle de l’ancienne.Dans le cas contraire, on peut affirmer qu’il n’y a pas suffisamment d’indication(ou de preuve) statistique pour conclure que la nouvelle machine aura une pro-duction superieure, et l’on prefere s’en tenir au statu quo. Une erreur a certes etecommise, mais elle est moins couteuse que la precedente. En pratique, il faudraitaussi tenir compte du cout d’achat de la nouvelle machine pour pouvoir decidersi son acquisition est justifiee ou non.

Un autre exemple qui illustre bien l’importance de ne pas commettre uneerreur de premiere espece est celui d’un proces pour meurtre. Supposons quevous faites partie du jury qui doit decider si une personne accusee de meurtreest coupable ou non. Supposons aussi que vous croyez que la personne accuseeest en fait coupable, et posons:

H0: la personne est innocente et H1: la personne est coupable

Dans ce cas, commettre une erreur de premiere espece signifie condamner unepersonne innocente, tandis que commettre une erreur de seconde espece setraduit par innocenter une personne qui etait en fait coupable de meurtre. Laplupart des gens reconnaıtront qu’il n’y a rien de pire que de condamner uninnocent (surtout si la peine de mort est en vigueur...). Notons que, dans cetexemple, si l’on croit que la personne accusee est innocente, alors on pourraitposer:

H0: la personne est coupable et H1: la personne est innocente

mais choisir une valeur de β presque egale a 0.(iii) Compte tenu de la remarque precedente, on choisit generalement le para-metre α dans l’intervalle [0,01; 0,10]. Ensuite, si l’echantillon aleatoire n’a pasencore ete preleve, on peut fixer une valeur du parametre β; pour ce faire, ilfaut choisir un cas particulier de l’hypothese H1 pour lequel on voudrait que,

Page 49: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

6.2 Tests d’ajustement 289

par exemple, il n’y ait pas plus de 15 % de risque d’accepter H0 dans ce cas. Lavaleur de β que l’on fixe determinera la taille de l’echantillon a prelever.

Par exemple, on pourrait poser que β(µ = 1,5c) = 0,10 dans l’exemple6.1.1 (iii); c’est-a-dire que, si la production moyenne de la nouvelle machineest superieure de 50 % a celle de l’ancienne machine, alors on voudrait que letest utilise n’ait pas plus de 10 % de risque de conclure que l’ancienne machineest au moins aussi bonne que la nouvelle.

6.2 Tests d’ajustement

6.2.1 Test d’ajustement du khi-deux de Pearson

Soit X une variable aleatoire dont la fonction de densite (ou la fonction deprobabilite) fX(x; θ) est inconnue. On veut faire le test de l’hypothese nulle

H0: fX = f0 (6.5)

contre la contre-hypotheseH1: fX 6= f0 (6.6)

ou f0 est une fonction donnee. La marche a suivre est la suivante:(i) on divise l’ensemble des valeurs possibles de X en k classes (ou intervalles)disjointes et exhaustives;(ii) on preleve un echantillon aleatoire de taille n de X;(iii) on calcule

D2 :=k∑j=1

(nj −mj)2

mj(6.7)

ou nj est le nombre d’observations dans la je classe (l’effectif observe) et mj

designe l’effectif sous H0, c’est-a-dire le nombre d’observations que devraitcompter, en moyenne, la je classe si l’hypothese H0 est vraie;(iv) on peut montrer que si H0 est vraie, alors D2 ≈ χ2

k−r−1; c’est-a-dire que D2

presente (approximativement) une distribution du khi-deux a k − r − 1 degresde liberte, ou r est le nombre de parametres inconnus de la fonction f0 qu’il fautestimer. Le test consiste a rejeter H0 au seuil de signification (ou niveau) α siet seulement si

D2 > χ2α,k−r−1 (6.8)

Page 50: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

7

Regression lineaire simple

On a vu au chapitre precedent comment tester l’hypothese que les donnees quel’on a recueillies proviennent d’une distribution particuliere, comme la distribu-tion normale. Pour ce faire, on peut se servir des tests d’ajustement de Pearson,de Shapiro et Wilk (pour la normalite) et de Kolmogorov et Smirnov.

Lorsque la variable aleatoire qui nous interesse est une fonction d’une variabledeterministe (que l’on peut controler), la regression peut nous aider a trouver laforme de la relation entre les variables aleatoire et deterministe. Compte tenu dufait que, dans tous les domaines du genie et des sciences naturelles, les etudiantset les chercheurs effectuent des experiences scientifiques au cours desquelles desdonnees sont recueillies, le sujet de la regression est tres important.

Dans ce chapitre, nous allons traiter en detail le probleme de base, soit celuide trouver la meilleure relation lineaire entre la variable aleatoire et la variabledeterministe. Nous allons aussi considerer brievement le cas ou la relation entreles deux variables est supposee non lineaire.

Nous ne traiterons pas ici le cas ou l’on cherche une relation entre une varia-ble aleatoire et deux ou plusieurs variables deterministes. La regression multi-ple exige l’utilisation de logiciels statistiques lors de la resolution de problemespratiques, pour l’inversion de matrices, par exemple. Cependant, une fois laregression lineaire simple bien comprise, il est possible de generaliser la theoriesans trop de difficultes.

7.1 Le modele

Soit Y une variable aleatoire et x une variable deterministe (c’est-a-dire nonaleatoire). On dispose d’un echantillon aleatoire (x1, Y1), . . . , (xn, Yn) et on desire

Extrait de la publication

Page 51: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

382 7 Regression lineaire simple

trouver une relation mathematique qui exprime Y en fonction de x. La variablex est appelee variable independante et Y variable dependante ou variablereponse.

Dans le cas de la regression lineaire simple, le modele que l’on propose estde la forme

Y = β0 + β1x+ ε (7.1)

ou ε est un terme d’erreur. On suppose que chaque observation Yi de Y satisfaita l’equation

Yi = β0 + β1xi + εi (7.2)

ou εi ∼ N(0, σ2) pour i = 1, . . . , n et les εi sont des variables aleatoiresindependantes. Notons que l’on tient pour acquis que la variance des εi est lameme pour tout i.

On peut donc ecrire que

Yi ∼ N(β0 + β1xi, σ2) pour i = 1, . . . , n (7.3)

car β0 et β1 sont des parametres (c’est-a-dire des constantes).

Remarque. Le modele est appele modele de regression lineaire simple, car il n’ya qu’une seule variable independante et le modele est lineaire par rapport auxparametres. Le modele

Yi = β0 + β1xi + β2x2i + εi (7.4)

est lineaire par rapport aux parametres et polynomial de degre deux, tandis que

Yi = β0eβ1xi + εi (7.5)

est un modele non lineaire par rapport aux parametres.

Les meilleurs estimateurs des parametres β0 et β1, c’est-a-dire les estimateursnon biaises et a variance minimale de β0 et β1, sont obtenus en utilisant lamethode des moindres carres. On definit la somme

SC =n∑i=1

ε2i =n∑i=1

(Yi − β0 − β1xi)2 (7.6)

Les estimateurs β0 et β1 de β0 et β1 par la methode des moindres carres sontles valeurs de β0 et β1 qui minimisent la somme SC. On pose:

Page 52: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

7.1 Le modele 383

∂ SC

∂β0= −2

n∑i=1

(Yi − β0 − β1xi) = 0 (7.7)

et∂ SC

∂β1= −2

n∑i=1

xi(Yi − β0 − β1xi) = 0 (7.8)

La solution de ces deux equations, appelees equations normales, est

β1 =∑n

i=1(xi − x)(Yi − Y )∑ni=1(xi − x)2

=∑n

i=1 xiYi − nxY∑ni=1 x

2i − nx2

et β0 = Y − β1x (7.9)

Pour predire la valeur de Y lorsque x = xi, on utilise alors l’equation

Yi = β0 + β1xi (7.10)

Remarques.(i) Dans le cas ou l’on suppose que les erreurs εi sont independantes et presententtoutes une distribution N(0, σ2), comme ci-dessus, on trouve que les estimateursdonnes par la methode des moindres carres et ceux obtenus par la methode devraisemblance maximale sont les memes.

(ii) Les εi sont aussi appeles residus (theoriques); la quantite εi represente ladifference entre l’observation Yi et la valeur calculee a partir du modele proposeYi = β0 + β1xi.

(iii) L’equation de prediction ne devrait (theoriquement) etre utilisee que pourdes valeurs de x dans l’intervalle [x(1), x(n)], ou

x(1) := minx1, . . . , xn et x(n) := maxx1, . . . , xn (7.11)

(iv) Meme si l’on sait que Y = 0 lorsque x = 0, on ne pose pas que β0 = 0; onobtient generalement de meilleurs resultats en laissant β0 dans le modele. Cepen-dant, si l’on desire effectivement proposer le modele de regression passantpar l’origine:

Y = βx+ ε (7.12)

ou ε ∼ N(0, σ2), on trouve facilement que l’estimateur du parametre β obtenu parla methode des moindres carres, a partir d’un echantillon aleatoire (x1, Y1), . . .,(xn, Yn), est

Page 53: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

384 7 Regression lineaire simple

β =∑n

i=1 xiYi∑ni=1 x

2i

(7.13)

Exemple 7.1.1 (voir la reference [19]). On veut determiner de quelle facon laforce de tension d’un certain alliage depend du pourcentage de zinc qu’il contient.On a les donnees suivantes:

% de zinc 4,7 4,8 4,9 5,0 5,1Force de tension 1,2 1,4 1,5 1,5 1,7

On obtient le graphique de la figure 7.1.

% de zinc

Force de tension

5,15,04,94,84,7

1,2

1,3

1,4

1,5

1,6

1,7

(4,7;1,24)

(5,1;1,68)

Fig. 7.1. Graphique dans l’exemple 7.1.1

On propose le modele de regression lineaire simple:

Y = β0 + β1x+ ε

ou x est le pourcentage de zinc et Y la force de tension.

Remarque. Il est important de bien reperer la variable aleatoire et la variabledeterministe dans le probleme.

On trouve que

x = 4,9, y = 1,46,5∑i=1

x2i = 120,15 et

5∑i=1

xiyi = 35,88

Page 54: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

7.2 Tests d’hypotheses 385

Alors on a:

β1 =∑5

i=1 xiyi − 5xy∑5i=1 x

2i − 5x2

=35,88− 5(4,9)(1,46)

120,15− 5(4,9)2= 1,1

etβ0 = y − β1x = 1,46− (1,1)(4,9) = −3,93

Donc, l’equation de prediction est donnee par

y = −3,93 + 1,1x

7.2 Tests d’hypotheses

Etant donne que les estimateurs β0 et β1 sont des combinaisons lineaires devariables aleatoires normales independantes, ils presentent aussi une distributionnormale. De plus, on peut montrer que β0 et β1 sont des estimateurs non biaisesde β0 et β1, et que

VAR[β0] = σ2

(1n

+x2

SCx

)et VAR[β1] =

σ2

SCx(7.14)

ou

SCx :=n∑i=1

(xi − x)2 =n∑i=1

x2i − nx2 =

n∑i=1

x2i −

(∑n

i=1 xi)2

n(7.15)

Remarque. Les estimateurs β0 et β1 ne sont generalement pas independants. Enfait, on peut montrer que

COV[β0, β1] = − σ2x

SCx(7.16)

Puisque deux variables aleatoires normales sont independantes si et seulement sileur covariance (ou leur coefficient de correlation) egale zero (voir la page 163),on peut affirmer que β0 et β1 sont des variables aleatoires independantes si etseulement si x = 0. Cependant, soit

β′0 = β0 + β1x (7.17)

Page 55: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

8

Fiabilite

Dans plusieurs domaines appliques, en particulier dans la plupart des disciplinesdu genie, il est important d’etre en mesure de calculer la probabilite qu’un certaindispositif ou systeme soit en etat de fonctionnement a un instant donne, oupendant un temps determine. Nous avons deja considere plusieurs exercices sur lafiabilite aux chapitres 2 a 4. Au chapitre 2, il etait sous-entendu que l’on calculaitla fiabilite d’un systeme a un instant donne t0, en supposant que la fiabilite dechacun de ses composants a cet instant etait connue. Pour pouvoir calculer laprobabilite qu’une machine fonctionne sans panne pendant une certaine quantitede temps, il est necessaire de connaıtre la distribution de sa duree de vie ou de laduree de vie de ses composants. Cela devient un probleme sur les variables ou lesvecteurs aleatoires. Dans ce chapitre, nous presentons en detail les principauxconcepts de la fiabilite.

8.1 Notions de base

Il y a plusieurs interpretations possibles du mot fiabilite. Dans ce livre, il corres-pond toujours a la probabilite qu’un systeme fonctionne correctement a un ins-tant donne ou pendant une periode donnee. De plus, dans ce chapitre, nous nousinteressons surtout a la fiabilite pendant un certain intervalle de temps [0, t].

Definition 8.1.1. Soit X une variable aleatoire non negative representant laduree de vie (ou le temps jusqu’a une panne) d’un systeme ou d’un dispositif.La probabilite

R(x) = P [X > x] [= 1− FX(x)] pour x ≥ 0

est appelee fonction de fiabilite ou fonction de survie du systeme.

Page 56: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

424 8 Fiabilite

Remarques.(i) La fonction R(x) peut aussi etre notee S(x). La notation FX(x) = 1−FX(x)est egalement utilisee.(ii) La plupart du temps, on suppose que la variable aleatoire X est continue.Cependant, dans certaines applications, la duree de vie est mesuree en nombrede cycles. Par consequent, X est alors une variable aleatoire discrete (prenantdes valeurs entieres non negatives, plus precisement). De plus, si l’on accepte lapossibilite que le dispositif puisse etre defectueux, alors X pourrait prendre lavaleur 0 et etre une variable aleatoire de type mixte.(iii) Toutes les distributions discretes considerees a la section 3.2 pourraientservir de modeles en fiabilite. Dans le cas des distributions continues, nous de-vons nous limiter a celles qui sont toujours non negatives. Par consequent, ladistribution normale ne peut pas etre un modele exact en fiabilite. Malgre tout,selon la valeur des parametres µ et σ, elle peut etre un bon modele approximatifpour la duree de vie d’une machine. De plus, on peut considerer la distributionnormale tronquee, definie pour x ≥ 0.

Une mesure utile de la fiabilite d’un systeme est sa duree de vie moyenneE[X], soit le temps moyen de fonctionnement jusqu’a une panne du systeme.

Definition 8.1.2. Le symbole MTTF (Mean Time To Failure, en anglais)represente l’esperance mathematique de la duree de vie X d’un systeme. Si lesysteme peut etre repare, on definit aussi les symboles MTBF pour temps moyenentre deux pannes (Mean Time Between Failures), et MTTR pour tempsmoyen de reparation (Mean Time To Repair). On a: MTBF = MTTF +MTTR.

Remarques.(i) Supposons qu’on s’interesse a la duree de vie X d’une voiture. Il est evidentque, sauf dans le cas d’une panne reellement majeure, la voiture sera repareequand elle tombera en panne. Lorsqu’on calcule la quantite MTBF , on supposeque, apres avoir ete repare, un systeme est aussi bon que neuf. Bien sur, dans lecas d’une voiture, cela n’est pas exact, car les voitures vieillissent et s’usent.(ii) Pour differencier les pannes critiques des non critiques, on peut utiliser leterme plus precis Mean Time Between Critical Failures (MTBCF ), pour tempsmoyen entre deux pannes critiques. Alors le symbole MTBF pourrait etre in-terprete comme le temps moyen entre deux pannes quelconques, c’est-a-direcritiques ou non. Dans le contexte d’un systeme informatique de transmission

Page 57: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

8.1 Notions de base 425

de donnees, on a aussi le Mean Time Between System Aborts (MTBSA), soit letemps moyen entre deux arrets prematures.

Pour calculer la duree de vie moyenne d’un systeme, on peut bien sur utiliserla definition de l’esperance mathematique d’une variable aleatoire. Cependant,il est parfois plus simple de proceder comme dans la proposition suivante.

Proposition 8.1.1. Soit X une variable aleatoire non negative. Alors on a:

E[X] =

∑∞

k=0 P [X > k] =∑∞

k=0R(k) si X ∈ 0, 1, . . .∫∞0 P [X > x]dx =

∫∞0 R(x)dx si X ∈ [0,∞)

Preuve. Considerons d’abord le cas ou X est une variable aleatoire qui prenddes valeurs entieres non negatives. On a:

E[X] :=∞∑j=0

jP [X = j] =∞∑j=1

jP [X = j] =∞∑j=1

j∑k=1

P [X = j]

=∞∑k=1

∞∑j=k

P [X = j] =∞∑k=1

P [X ≥ k] =∞∑k=0

P [X > k]

De facon similaire, si X (est continue et) prend ses valeurs dans l’intervalle[0,∞), on peut ecrire que

E[X] :=∫ ∞

0tfX(t)dt =

∫ ∞0

∫ t

0fX(t)dxdt

=∫ ∞

0

∫ ∞x

fX(t)dtdx =∫ ∞

0P [X > x]dx

Remarques.(i) Il n’est pas necessaire que la variable aleatoire discrete X prenne toutes lesvaleurs entieres non negatives. Il suffit que l’ensemble des valeurs possibles deX soit inclus dans 0, 1, . . .. De meme, dans le cas continu, X doit prendre sesvaleurs dans l’intervalle [0,∞).(ii) Souvent, les formules dans la proposition ne simplifient pas le calcul del’esperance mathematique de X. Par exemple, il est plus complique de calculer

Page 58: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

426 8 Fiabilite

la moyenne d’une variable aleatoire qui presente une distribution de Poisson apartir de la premiere formule qu’a partir de la definition.

Exemple 8.1.1. Soit X une variable aleatoire qui presente une distribution geo-metrique de parametre p appartenant a l’intervalle (0, 1). Ses valeurs possiblessont les entiers 1, 2, . . ., et sa moyenne est egale a 1/p. Nous avons vu (a lapage 81) que

P [X > k] = (1− p)k pour k = 0, 1, . . .

Il s’ensuit qu’on a bien:

E[X] =∞∑k=0

(1− p)k =1

1− (1− p)=

1p

Exemple 8.1.2. Si X ∼ Exp(λ), on trouve (voir l’exemple 3.5.2) que

P [X > x] =∫ ∞x

λe−λtdt = e−λx pour x ≥ 0

De la,

E[X] =∫ ∞

0e−λxdx = −e

−λx

λ

∣∣∣∣∞0

=1λ

Au chapitre 4, nous avons defini diverses fonctions conditionnelles, par exem-ple la fonction fX(x | Y = y), ou (X,Y ) est un vecteur aleatoire continu. Nousavons aussi defini des fonctions du type fX(x | AX), ou AX est un evenementqui n’implique que la variable aleatoire X. Une certaine fonction de densiteconditionnelle est importante en fiabilite.

Definition 8.1.3. Supposons que la duree de vie T d’un systeme est une va-riable aleatoire continue et non negative. Le taux de panne (ou taux dedefaillance) r(t) du systeme est defini par

r(t) = fT (t | T > t) := lims↓t

d

dsFT (s | T > t) pour t ≥ 0

Page 59: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

8.1 Notions de base 427

Remarques.(i) La fonction r(t), multipliee par dt, peut etre interpretee comme etant laprobabilite qu’une machine, qui est agee de t unites de temps et qui fonctionneencore, tombe en panne dans l’intervalle (t, t+ dt]. En effet, on a:

fT (t | T > t) = limdt↓0

P [t < T ≤ t+ dt | T > t]dt

(ii) On suppose que la fonction de repartition conditionnelle FT (s | T > t) estderivable en s ∈ (t, t+ dt].(iii) On doit prendre la limite lorsque s decroıt vers t dans la definition, parceque FT (t | T > t) ≡ P [T ≤ t | T > t) = 0. Cependant, on n’a pas a prendre unelimite pour calculer fT (s | T > t) a partir de FT (s | T > t), pour s > t.

Proposition 8.1.2. On a:

r(t) =fT (t)

1− FT (t)= −R

′(t)R(t)

pour t ≥ 0

Preuve. Par definition,

FT (s | T > t) = P [T ≤ s | T > t] =P [T ≤ s ∩ T > t]

P [T > t]

=

0 si s ≤ tFT (s)− FT (t)

1− FT (t)si s > t

De la,

fT (s | T > t) :=d

dsFT (s | T > t) =

fT (s)1− FT (t)

si s > t

En prenant la limite lorsque s decroıt vers t, on obtient que

r(t) := fT (t | T > t) =fT (t)

1− FT (t)

Finalement, puisque

R′(t) =d

dt[1− FT (t)] = −fT (t)

Page 60: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

9

Files d’attente

Une application importante des probabilites est le domaine connu sous le nom detheorie des files d’attente. Ce domaine etudie le comportement de files d’attenteou queues. Les ingenieurs en telecommunication et les informaticiens sont parti-culierement interesses a la theorie des files d’attente pour resoudre des problemesd’allocation et d’utilisation efficace des ressources dans des reseaux sans fil et desreseaux d’ordinateurs, par exemple. En general, les modeles consideres dans cechapitre sont tels que les arrivees dans le systeme de file d’attente et les departsde ce systeme constituent deux processus de Poisson, que nous avons definis auchapitre 3 (page 86). Les processus de Poisson sont en fait des chaınes de Markova temps continu particulieres, lesquelles sont le sujet de la premiere section de cechapitre. Le cas ou il y a un seul serveur dans le systeme de file d’attente et celuiou le nombre de serveurs est superieur ou egal a deux sont etudies separement.

9.1 Chaınes de Markov a temps continu

Definition 9.1.1. Un processus stochastique (ou processus aleatoire) estun ensemble X(t), t ∈ T de variables aleatoires X(t), ou T est un sous-ensemble de R.

Remarques.(i) La variable deterministe t est souvent interpretee comme etant le temps dansles problemes consideres. Dans ce chapitre, nous nous interessons aux proces-sus stochastiques a temps continu, de sorte que l’ensemble T est generalementl’intervalle [0,∞).

Extrait de la publication

Page 61: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

464 9 Files d’attente

(ii) L’ensemble de toutes les valeurs possibles des variables aleatoires X(t) estappele espace des etats du processus stochastique.

Une classe tres importante de processus stochastiques pour les applicationsest celle des processus connus sous le nom de processus de Markov.

Definition 9.1.2. Si on peut ecrire que

P [X(tn) ≤ xn | X(t),∀t ≤ tn−1] = P [X(tn) ≤ xn | X(tn−1)] (9.1)

ou tn−1 < tn, on dit que le processus stochastique X(t), t ∈ T est un proces-sus de Markov (ou processus markovien).

Remarque. L’equation precedente, appelee propriete de Markov, signifie que lefutur du processus ne depend que de son etat present. C’est-a-dire que, en sup-posant que l’ensemble T est l’intervalle [0,∞), on n’a pas besoin de connaıtrel’histoire du processus dans l’intervalle [0, tn−1) pour calculer la distribution dela variable aleatoire X(tn), ou tn > tn−1, si la valeur de X(tn−1) est connue.

Definition 9.1.3. Si on suppose que l’ensemble des valeurs que les diverses va-riables aleatoires X(t) peuvent prendre est au plus infini denombrable, de sorteque X(t) est une variable aleatoire discrete pour n’importe quelle valeur fixee dela variable t, alors on dit que X(t), t ∈ T est un processus stochastique a etatdiscret.

Maintenant, soit τi le temps que le processus markovien a temps continu et aetat discret X(t), t ≥ 0 passe dans un etat donne i avant de faire une transitionvers n’importe quel autre etat. On deduit de la propriete de Markov que

P [τi > s+ t | τi > s] = P [τi > t] ∀s, t ≥ 0 (9.2)

(autrement le futur dependrait du passe). Cette equation implique que la varia-ble aleatoire continue τi presente une distribution exponentielle. En effet, seulela distribution exponentielle possede la propriete de non-vieillissement (voir lapage 94) en temps continu.Remarques.(i) On symbolise le parametre de la variable aleatoire τi par νi, pour tout i. Dansle cas general, νi depend de l’etat correspondant i. Cependant, dans le cas d’unprocessus de Poisson de taux λ, on a que νi = λ pour tout i.(ii) On deduit aussi de la propriete de Markov que l’etat qui sera visite lorsquele processus quittera l’etat courant i doit etre independant du temps total τi quele processus aura passe dans i avant de faire une transition.

Extrait de la publication

Page 62: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

9.1 Chaınes de Markov a temps continu 465

Definition 9.1.4. Le processus stochastique a temps continu et a etat discretX(t), t ≥ 0 est appele chaıne de Markov a temps continu si

P [X(t) = j | X(s) = i,X(r) = xr, 0 ≤ r < s] = P [X(t) = j | X(s) = i]

pour tout t ≥ s et pour tous les etats i, j, xr.

Remarques.(i) On suppose que les chaınes de Markov considerees possedent des probabilitesde transition homogenes par rapport au temps. Cela signifie que si t ≥ s ≥ 0 etτ ≥ 0, on peut ecrire que

P [X(t) = j | X(s) = i] := pi,j(t− s) ⇐⇒ P [X(τ + t) = j | X(τ) = i] = pi,j(t)

C’est-a-dire que la probabilite que le processus passe de l’etat i a l’etat j dansun intervalle de temps donne ne depend que de la longueur de cet intervallede temps. Cette hypothese est faite dans la plupart des livres et est realistedans plusieurs applications. La fonction pi,j(t) est la fonction de transition de lachaıne de Markov a temps continu.

(ii) Si pi,j(t) > 0 pour un t ≥ 0 et pj,i(t∗) > 0 pour un t∗ ≥ 0, on dit que lesetats i et j communiquent. Si tous les etats communiquent, la chaıne est diteirreductible.(iii) Dans le contexte de la theorie des files d’attente, les X(t) sont des va-riables aleatoires non negatives qui prennent des valeurs entieres. C’est-a-direque l’espace des etats du processus stochastique X(t), t ≥ 0 est l’ensemble0, 1, . . .. Selon cette hypothese, on peut ecrire que

∞∑j=0

pi,j(t) = 1 ∀i ∈ 0, 1, . . .

En effet, quel que soit l’etat dans lequel se trouve le processus a un instant fixeτ ≥ 0, il doit etre dans l’un des etats possibles a l’instant τ + t, ou t ≥ 0. Notonsqu’on a:

pi,j(0) = δi,j :=

1 si i = j0 si i 6= j

pour tous les etats i, j ∈ 0, 1, . . ..

Notation. On note ρi,j la probabilite que la chaıne de Markov a temps continuX(t), t ≥ 0, lorsqu’elle quitte l’etat courant i, entre dans l’etat j, pour i, j ∈0, 1, . . ..

Page 63: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

466 9 Files d’attente

On a, par definition, que ρi,i = 0 pour tous les etats i, et

∞∑j=0

ρi,j = 1 ∀i ∈ 0, 1, . . .

Definition 9.1.5. Soit X(t), t ≥ 0 une chaıne de Markov a temps continudont l’espace des etats est 0, 1, 2, . . .. Si

ρi,j = 0 lorsque |j − i| > 1 (9.3)

le processus est appele processus de naissance et de mort. De plus, si

ρi,i+1 = 1 pour tout i

alors X(t), t ≥ 0 est un processus de naissance pur, tandis que dans le casou

ρi,i−1 = 1 pour tout i ∈ 1, 2, . . .

on dit que X(t), t ≥ 0 est un processus de mort pur.

On deduit de la definition qu’un processus de naissance et de mort est telque

ρ0,1 = 1 et ρi,i+1 + ρi,i−1 = 1 pour i ∈ 1, 2, . . .

C’est-a-dire que lorsque le processus est dans l’etat i ≥ 1, le prochain etat visitesera necessairement i+ 1 ou i− 1.Remarque. L’espace des etats d’un processus de naissance et de mort peut etrel’ensemble fini 0, 1, 2, . . . , c. On a alors que ρc,c−1 = 1.

Dans la theorie des files d’attente, l’etat du processus a un instant fixe serageneralement le nombre d’individus dans le systeme d’attente a cet instant.Lorsque X(t), t ≥ 0 passe de l’etat i a i + 1, on dit qu’une arrivee s’estproduite, et s’il passe de i a i − 1, alors un depart a eu lieu. On suppose que,lorsque la chaıne est dans l’etat i, le temps Ai requis pour qu’une nouvelle arriveese produise est une variable aleatoire qui presente une distribution Exp(λi), pouri ∈ 0, 1, . . .. De plus, on suppose que Ai est independant du temps aleatoireDi ∼ Exp(µi) ecoule jusqu’au prochain depart, pour i ∈ 1, 2, . . ..

Proposition 9.1.1. Le temps total τi que le processus de naissance et de mortX(t), t ≥ 0 passe dans l’etat i, lors d’une visite donnee a cet etat, est unevariable aleatoire qui presente une distribution exponentielle de parametre

Page 64: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

9.1 Chaınes de Markov a temps continu 467

νi =

λ0 si i = 0λi + µi si i = 1, 2, . . .

Preuve. Lorsque i = 0, on a simplement que τ0 ≡ A0, de sorte que τ0 ∼ Exp(λ0).Pour i = 1, 2, . . ., on peut ecrire que τi = minAi, Di. Le resultat decoule alorsde la proposition 8.2.1.

Remarque. On a aussi (voir l’equation (4.17)) que

ρi,i+1 = P [Ai < Di] =λi

λi + µisi i > 0

etρi,i−1 = P [Di < Ai] =

µiλi + µi

si i > 0

Definition 9.1.6. Les parametres λi, pour i = 0, 1, . . . , sont appeles taux denaissance (ou d’arrivee) du processus de naissance et de mort X(t), t ≥ 0,tandis que les parametres µi, pour i = 1, 2, . . . , sont les taux de mort (ou dedepart) du processus.

Exemple 9.1.1. En plus d’etre une chaıne de Markov a temps continu, le pro-cessus de Poisson N(t), t ≥ 0 est un processus de comptage particulier. C’est-a-dire que N(t) symbolise le nombre total d’evenements dans l’intervalle [0, t].Puisque seul le nombre d’evenements est retenu, et non pas si ces evenementsetaient des arrivees ou des departs, N(t), t ≥ 0 est un exemple de processusde naissance pur. Il s’ensuit que pi,j(t) = 0 si j < i. De plus, en utilisant le faitque les accroissements du processus de Poisson sont stationnaires, on peut ecrireque

pi,j(t) ≡ P [N(τ + t) = j | N(τ) = i] = P [N(t) = j − i]

= P [Poi(λt) = j − i] = e−λt(λt)j−i

(j − i)!pour j ≥ i ≥ 0

Le temps τi que N(t), t ≥ 0 passe dans n’importe quel etat i ∈ 0, 1, . . .presente une distribution exponentielle de parametre λ. En effet, on a:

P [τ0 > t] = P [N(t) = 0] = e−λt pour t ≥ 0

ce qui implique que τ0 ∼ Exp(λ). Ensuite, puisque le processus de Poissonpossede des accroissements independants et stationnaires, on peut alors affirmerque τi ∼ Exp(λ), pour i = 1, 2, . . . , egalement. ♦

Page 65: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en
Page 66: Probabilités, statistique et applications · 2018. 4. 13. · En n, les mod eles de les d’attente de base sont etudi es au chapitre 9. Les etudiants en g enie informatique et en

Extrait de la publication