curso magistral mate estadistica

67
PROBABILITES - STATISTIQUE V 1.6 Marc MENOU Janvier 2012

Upload: brian-arturo-mora

Post on 05-Jan-2016

25 views

Category:

Documents


3 download

DESCRIPTION

Curso Magistral Mate Estadistica

TRANSCRIPT

Page 1: Curso Magistral Mate Estadistica

PROBABILITES - STATISTIQUE

V 1.6

Marc MENOU

Janvier 2012

Page 2: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 2

TABLE DES MATIERES

RAPPELS MATHEMATIQUES 8

2 NOTIONS SUR LES ENSEMBLES 8

2.1 ENSEMBLE : 8

2.2 CARDINAL : 9

2.3 INCLUSION : 9

2.4 SOUS-ENSEMBLE : 9

2.5 EGALITE D’ENSEMBLES : 10

2.6 COMPLEMENTAIRE : 10

2.7 REUNION : 10

2.8 INTERSECTION : 11

2.9 DIFFERENCE : 12

2.10 ENSEMBLE DES PARTIES D'UN ENSEMBLE : 12

2.11 PRINCIPE DE DUALITE : 13

2.12 PARTITION D'UN ENSEMBLE E : 13

2.13 PRODUIT CARTESIEN : 14

3 DENOMBREMENTS OU ANALYSE COMBINATOIRE 15

3.1 ANALYSE COMBINATOIRE SANS REPETITION (N ≥ P) 15

3.1.1Arrangements : 16

3.1.2 Permutations : 16

3.1.3 combinaisons : 17

3.2 ANALYSE COMBINATOIRE AVEC REPETITION 19

3.2.1 Arrangements 19

3.2.2 Permutations 19

3.2.3 combinaisons 20

EN PRATIQUE : 21

Page 3: Curso Magistral Mate Estadistica

3

4 LES PROBABILITES 22

4.1 EPREUVE ALEATOIRE : 22

4.2 RESULTAT D'UNE EPREUVE : 22

4.3 UNIVERS DES POSSIBLES : 23

4.4 EVENEMENTS : 23

4.5 CORRESPONDANCE ENTRE ENSEMBLES ET EVENEMENTS 24

4.6 PROBABILITE ET FREQUENCE : 25

4.7 DEFINITION AXIOMATIQUE DES PROBABILITES : 25

4.7.1 AXIOMES DES PROBABILITES : 26

4.7.2 PROPRIETES DES PROBABILITES : 26

4.8 EQUIPROBABILITE : 26

4.9 PROBABILITES CONDITIONNELLES : 27

4.10 INDEPENDANCE : 28

4.11 THEOREME DE BAYES : 29

4.12 THEOREME DES PROBABILITES TOTALES : 30

4.13 FORMULE DE POINCARE 31

4.14 EXERCICES 32

5 VARIABLES ALEATOIRES REELLES 35

5.0.1 DEFINITION D’UNE VARIABLE ALEATOIRE : 35

5.1 VARIABLES ALEATOIRES DISCRETES 36

5.1.1 LOI DE PROBABILITE : 36

5.1.2 FONCTION DE REPARTITION : 37

5.1.3 MOMENTS 38

5.1.3.1 espérance mathématique : 39

5.1.3.2 variance 39

5.1.3.3 autres moments 40

Page 4: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 4

5.2 VARIABLE ALEATOIRE CONTINUE 41

5.2.1 FONCTION DE REPARTITION 42

5.2.2 PROPRIETES DE LA FONCTION DE REPARTITION 42

5.2.3 VARIABLE ALEATOIRE ABSOLUMENT CONTINUE 43

5.2.4 DENSITE DE PROBABILITE 43

5.2.5 PROPRIETES DE LA FONCTION DENSITE 44

5.2.6 PROBABILITE D'UN INTERVALLE 44

5.2.7 MOMENTS 44

5.2.7.1 espérance mathématique : 44

5.2.7.2 variance : 45

5.2.7.3 autres moments 45

6 PRINCIPALES LOIS DE PROBABILITES 49

6.1 PRINCIPALES LOIS DISCRETES 49

6.1.1 LOI CERTAINE 49

6.1.2 LOI UNIFORME 50

6.1.3 LOI DE BERNOULLI 50

6.1.4 LOI BINOMIALE 51

6.1.5 LOI DE POISSON 52

6.1.6 LOI MULTINOMIALE 53

6.1.7 LOI GEOMETRIQUE 54

6.1.8 LOI HYPERGEOMETRIQUE 55

6.2 PRINCIPALES LOIS DE VARIABLES CONTINUES 56

6.2.1 LOI UNIFORME CONTINUE 56

6.2.2 LOI NORMALE 57

6.2.12 LOI DU KHI-DEUX 61

6.2.13 LOI DE STUDENT (W. S. GOSSET) 62

6.2.15 LOI DE FISHER-SNEDECOR 63

Page 5: Curso Magistral Mate Estadistica

5

Page 6: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 6

1 INTRODUCTION

La réalité est trop complexe pour être directement intelligible par l'être humain. Aussi, le rôle de

la statistique est-il de permettre à l’homme la compréhension du réel. Elle constitue, en effet, un

ensemble de techniques intermédiaires entre le concret et l'abstrait. Elle cherche à évacuer

objectivement le culturel qui filtre médiatiquement la perception.

De ce fait, elle peut être sujette à caution, car, comme le remarque P. VALERY : "Ce qui est

simple est faux, ce qui ne l'est pas est inutilisable".

Cependant, comme la démarche statistique, dans la recherche de la simplification, est

relativement rationnelle, il est possible d'affirmer qu'il n'y a de vérité que statistique, que tout le

reste n'est que littérature.

La réalité se traduit par des objets caractérisés par des distributions d'effectifs (absolus) et de

fréquences (relatives). L'observation, le classement, la représentation et la simplification de ces

données constituent l'objet des statistiques descriptives étudiées en première année.

Les statistiques descriptives permettent la connaissance. Mais le but de la connaissance c'est

l'action.

Agir, dans un contexte économique caractérisé par la rareté, c'est faire des choix qui présentent

des coûts alternatifs. Ce choix a toujours un caractère inter-temporel. Or, le futur est inconnu et

donc source d'incertitude. Pour agir, il faut lever l'incertitude.

Le corps de connaissances accumulées par les sciences permet cependant d'envisager et d'évaluer

un certain nombre d'hypothèses quant à ce futur. Les probabilités fournissent une méthode

d'évaluation des choix alternatifs par anticipation. Elles servent donc de base aux techniques

d'estimation et de décision.

L'objet de ce cours est donc, de préparer à la statistique inférentielle.

Page 7: Curso Magistral Mate Estadistica

7

NOTE IMPORTANTE :

Ce mémento a pour objet d’éviter la prise de notes en cours, il ne dispense en aucun cas de

l'assiduité. Le cours sera enrichi d'exemples, de démonstrations et d'exercices. L’examen porte

sur le cours dispensé.

Page 8: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 8

RAPPELS MATHEMATIQUES

2 Notions sur les ensembles

Ce chapitre rappelle les notions : d’ensemble (2.1), de cardinal (2.2), d’inclusion (2.3), de sous-

ensemble (2.4), d’égalité (2.5), de complémentaire (2.6), de réunion (2.7), d’intersection (2.8), de

différence (2.9), d’ensemble des parties d’un ensemble (2.10), de principe de dualité (2.11), de

partition d’un ensemble (2.12) et de produit cartésien (2.13).

2.1 Ensemble :

Un ensemble est une collection d'objets, appelés éléments, possédant au moins une

caractéristique commune à tous.

Un ensemble est défini lorsqu'il est possible pour tout objet de préciser s'il appartient ou non à

l'ensemble considéré. Définir un ensemble c'est créer une enveloppe distinguant un dedans et un

dehors.

Un ensemble est défini en extension lorsque ses éléments sont cités, en compréhension lorsqu'une

propriété caractéristique permet de préciser l'appartenance à l'ensemble.

Remarque : ce mode binaire de définition d'un ensemble peut cependant être remis en question.

La théorie des sous-ensembles flous1 (fuzy sets) module le degré d'appartenance des éléments.

Les ensembles sont représentés par des diagrammes de VENN.

1 BOUCHON-MEUNIER B., La logique floue, Que sais-je ?, PUF, 1993.

Page 9: Curso Magistral Mate Estadistica

9

2.2 Cardinal :

Le cardinal d'un ensemble E, noté card E, est le nombre d'éléments de l'ensemble.

Lorsque le cardinal est :

0 l'ensemble est dit vide noté ∅ ou

1 il est appelé singleton

2 il forme une paire

3 un triplet

n c'est un n-uplet

2.3 Inclusion :

Un ensemble F est strictement inclus dans l'ensemble E, F ⊂ E, si et seulement si tout élément de

F est élément de E.

2.4 Sous-ensemble :

Un sous-ensemble, ou partie, F de E est un ensemble d'éléments inclus dans E.

F

E

Page 10: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 10

2.5 Egalité d’ensembles :

Des ensembles sont égaux lorsqu'ils ont les mêmes éléments, et non lorsqu’ils ont le même

nombre d’éléments. L’égalité est ici qualitative.

E = F <==> E ⊂ F et F ⊂ E

2.6 Complémentaire :

Le complémentaire dans E du sous-ensemble A est l'ensemble des éléments de E qui

n'appartiennent pas à A. Il est souvent noté non A ou A .

E est appelé le référentiel

EXEMPLE : E = a, e, i, o, u, y A = i, y

non A = a, e, o, u

2.7 Réunion :

La réunion de deux ensembles, notée A ∪ B, est l'ensemble formé des éléments appartenant à l'un

ou (non exclusif) à l'autre ensemble.

La réunion est :

Commutative A ∪ B = B ∪ A

Complémentaire

A

E

Page 11: Curso Magistral Mate Estadistica

11

Associative A ∪ B ∪ C = A ∪ (B ∪ C) = (A ∪ B) ∪ C

Distributive par rapport à l'intersection

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4

A ∪ B = 0, 1, 2, 3, 4, 6, 8

2.8 Intersection :

L'intersection de deux ensembles, notée A ∩ B, est l'ensemble formé des éléments communs à

l'un et à l'autre.

L'intersection est

Commutative A ∩ B = B ∩ A

Associative A ∩ B ∩ C = A ∩ (B ∩ C) = (A ∩ B) ∩ C

Distributive par rapport à la réunion

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

Si des ensembles n'ont aucun élément commun, si l’intersection est vide, ils sont dits disjoints.

A

B

Page 12: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 12

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4

A ∩ B = 0, 2, 4

2.9 Différence :

L'ensemble de tous les éléments de A qui n'appartiennent pas à B est appelé différence de A et B

noté A - B.

EXEMPLE : A = 0, 2, 4, 6, 8 B = 0, 1, 2, 3, 4

A - B = 6, 8

2.10 Ensemble des parties d'un ensemble :

C'est l'ensemble formé par tous les sous-ensembles de E qu’il est possible de constituer avec les

A B

A B

Page 13: Curso Magistral Mate Estadistica

13

éléments de E.

si card E = n ==> card P(E) = 2n

L’ensemble des parties d’un ensemble peut se déterminer facilement et exhaustivement en

utilisant un arbre dichotomique.

EXEMPLE : E = a, b, c

P(E) = ∅ , a , b , c , a , b , a , c , b , c , E

card E = 3 ==> card P(E) = 23 = 8

2.11 Principe de dualité :

Tout résultat vrai relatif à des ensembles est également vrai si l'on remplace les réunions par des

intersections, les intersections par des réunions, les ensembles par leurs complémentaires et si

l'on renverse les symboles d'inclusions.

Les lois de DE MORGAN en constituent un exemple.

AUB = AIB

AIB = AUB

2.12 Partition d'un ensemble E :

C'est un ensemble de parties de l'ensemble E tel que ces parties soient disjointes deux à deux et

que leur réunion corresponde à E.

AiIAj = !

Ai

i

U = E

Page 14: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 14

2.13 Produit cartésien :

A X B (lire A croix B) est l'ensemble des couples (a,b) où a ∈ A et b ∈ B.

card (A X B) = card A x card B

Ex : A X B B

A

1 2 3

a (a , 1) (a , 2) (a , 3 )

b (b , 1) (b , 2) (b , 3)

Le produit cartésien n’est pas commutatif. A X B ≠ B X A

Page 15: Curso Magistral Mate Estadistica

15

3 Dénombrements ou Analyse combinatoire

Les dénombrements constituent la base des statistiques.

Les dénombrements s'effectuent :

• Soit par des comptages directs, à partir d'ensembles ou de leurs représentations

(arbres)(cas simple)

• soit par l'utilisation des concepts de l'analyse combinatoire. (cas complexe)

L'analyse combinatoire est basée sur l'établissement d'applications entre deux ensembles, un

d'objets, l'autre de cases. Ainsi, tout problème de dénombrement se ramène à la disposition de n

objets dans p cases.

Il est possible de distinguer l'analyse sans (3.1) ou avec répétition ( 3.2).

Rappels : Factorielle n : n! = 1 x 2 x 3 x ... x (n-1) x n 3! = 1 x 2 x 3 = 6 4! = 1 x 2 x 3 x 4 = 3! x 4 = 6 x 4 = 24 n! = (n-1) ! x n 0! = 1 par convention

Approximation de STIRLING : n!= 2! nn +1

2e" n

(si n grand)

3.1 Analyse combinatoire sans répétition (n ≥ p)

Chaque objet ne peut être utilisé qu'une fois. Il ne peut figurer que dans une seule case. Cela

correspond à des tirages dans une urne sans remise.

Il existe trois concepts : les arrangements (3.1.1), les permutations (3.1.2) et les combinaisons

Page 16: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 16

(3.1.3).

3.1.1Arrangements :

Un arrangement de n objets dans p cases est toute suite ordonnée obtenue en plaçant les p objets

choisis parmi les n dans les p cases.

Un arrangement est donc une application injective de l'ensemble des cases dans celui des objets.

Deux choix successifs sont à effectuer : il faut d'abord choisir les p objets à retenir parmi les n, et

ensuite choisir leur place (case). La place des objets a donc de l'importance, ce qui peut

s'exprimer en disant que les cases sont repérées (numérotées par exemple), ou qu’elles repèrent

les objets.

Les p éléments objets sont tirés successivement.

Le nombre d'arrangements est donné par :

!

An

p= n(n "1)(n " 2)...(n " p +1) =

n!

(n " p)!

EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠ Indiquer toutes les possibilités

d’arrangements de deux éléments. ♣, ♥ ♣, ♠ ♥, ♠ ♥,♣ ♠, ♥ ♠, ♣

Vérifier le nombre d’arrangements.

On cherche à dénombrer toutes les possibilités d’arrivée d’un tiercé de 20 chevaux dans l’ordre.

6840 possibilités

3.1.2 Permutations :

Une permutation est un cas particulier d’arrangement de n éléments dans n cases (p = n). Tous les

objets sont utilisés, il n'y a donc pas de choix à effectuer parmi les objets, seule leur place

importe.

Page 17: Curso Magistral Mate Estadistica

17

Une permutation est donc une application bijective de l'ensemble des cases dans celui des objets.

Le nombre de permutations est donné par :

!

Pn

= An

n=

n!

(n " n)!=n!

0!=n!

1= n!

EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠

Indiquer toutes les possibilités de permutations.

♣, ♥, ♠ ♥, ♠, ♣ ♠, ♥, ♣ ♣, ♠, ♥ ♥, ♣, ♠ ♠, ♣, ♥ Vérifier le nombre de

permutations.

3! = 6

Quatre enfants ont à leur disposition 4 déguisements, combien de cas de figure peut-on trouver ?

4! = 24

3.1.3 combinaisons :

Une combinaison de n éléments est constituée de tout sous-ensemble de p éléments.

Ce sont les arrangements, de n objets dans p cases dont la place n'a pas d'importance. Il faut donc

de ces arrangements déduire toutes les permutations de p objets. Les cases jouent toutes le même

rôle, elles ne se distinguent pas, le seul problème est celui du choix des objets à retenir.

Les p éléments objets sont tirés en une fois, ce sont des tirages simultanés.

Le nombre de combinaisons est donné par :

!

Cn

p=An

p

p!=

n!

(n " p)!p!

Page 18: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 18

Triangle de PASCAL :

1

1 1

1 2 1

1 3 3 1

1 4 6 4 1

1 5 10 10 5 1

C0

0

C1

0C1

1

C2

0C2

1C2

2

C3

0C3

1C3

2C3

3

p propriétés de Cn (cf. le triangle de PASCAL): p n-p Cn = Cn Symétrie p p p-1 Cn = Cn-1 + Cn-1

formule du binome :

n n k k n-k (a + b) = ∑ Cn a b k=0

EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠ Indiquer toutes les possibilités de

combinaisons de deux éléments. ♣, ♥ ♣, ♠ ♥, ♠ ♥,♣ ♠, ♥ ♠, ♣

Vérifier le nombre de combinaisons.

Dénombrer le nombre de tiercés dans le désordre d’une course de 20 chevaux.

1140 possibilités

Page 19: Curso Magistral Mate Estadistica

19

3.2 Analyse combinatoire avec répétition

Les mêmes concepts se retrouvent : les arrangements (3.2.1), les permutations (3.2.2) et les

combinaisons (3.2.3).

Le même objet peut être réutilisé (il peut se trouver dans plusieurs cases). Cela correspond à des

tirages avec remise.

3.2.1 Arrangements

Le nombre de tels arrangements est donné par :

p n

EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠

Indiquer toutes les possibilités d’arrangements de 2 éléments avec répétition.

♣, ♥ ♥, ♠ ♠, ♥ ♣, ♠ ♥, ♣ ♠, ♣ ♣,♣ ♥, ♥ ♠, ♠

Vérifier le nombre d’arrangements.

3.2.2 Permutations

Ici, ce n’est pas véritablement une permutation avec répétition car, si on dispose d’autant d’objets

que de cases, comme le veut la définition des permutations, il n’y a pas de place pour les

répétitions. Si n objets sont distinguables en r groupes de tailles respectives n1 ... nr, il faut

considérer que chaque permutation des objets d'un même groupe ne constitue pas une

permutation différente de l'ensemble. Ces permutations-là doivent donc être déduites.

Page 20: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 20

B B R V

B R B V en permutant le 2ème et le 3ème élément cela change

B B R V en permutant le 1er et 2ème élément il n’y a pas de changement

Le nombre de permutations est donné par :

!

n!

n1!n

2!...n

r!

= Cn

n1C

n"n1

n2 ...C

n"n1"..."n

r"1

nr

De cette expression se déduit la formule multinomiale.

EXEMPLE : On dispose de 3 ♥ et de 2 ♣ Quelles sont toutes les dispositions possibles.

♥♥♥♣♣ ♥♥♣♣♥ ♥♣♣♥♥ ♥♣♥♣♥ ♥♥♣♥♣

♣♣♥♥♥ ♣♥♥♥♣ ♣♥♥♣♥ ♣♥♣♥♥ ♥♣♥♥♣

3.2.3 combinaisons

Le même objet pouvant se répéter p - 1 fois au maximum, cela revient à disposer de n+p-1 objets

dont il s'agit d'en choisir p. Il faut rajouter p - 1 objets aux n existants et considérer alors que l’on

est dans le cas des combinaisons sans répétition.

Le nombre de combinaison est donné par :

p p Kn = Cn+p-1

EXEMPLE : On considère l’ensemble E = ♣, ♥, ♠

Indiquer toutes les possibilités de combinaisons de 2 éléments avec répétition.

♣, ♥ ♥, ♠ ♣, ♠ ♣,♣ ♥, ♥ ♠, ♠

Vérifier le nombre de combinaisons.

Page 21: Curso Magistral Mate Estadistica

21

En pratique :

Pour comprendre les exercices, il est conseillé de visualiser le problème avec des ensembles plus

simples (cardinaux n et p inférieurs), de constituer des modèles réduits.

Pour effectuer tout dénombrement, il est nécessaire de chercher à adopter un dispositif matériel

susceptible de permettre d'obtenir l'évènement, dont on cherche à évaluer tous les cas, à tous les

coups.

Page 22: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 22

4 LES PROBABILITES

L’intérêt des probabilités en statistique repose sur le fait que :

L’observation est entachée d’erreurs ;

Les phénomènes observés s’apparentent à des modèles mathématiques de lois aléatoires ;

La composition des échantillons dépend du hasard.

Seront successivement passés en revue les concepts : d’épreuve aléatoire (4.1), résultat d’une

épreuve (4.2), univers des possibles (4.3), événement (4.4), correspondance entre ensembles et

événements (4.5), probabilité et fréquence (4.6), définition axiomatique des probabilités (4.7),

équiprobabilité (4.8), probabilités conditionnelles (4.9), indépendance (4.10), théorème de Bayes

(4.11), théorème des probabilités totales (4.12) et formule de Poincaré.

4.1 Epreuve aléatoire :

Tous les actes des humains, ou de leur environnement, ont des conséquences dont l'issue n'est pas

toujours très certaine. Ainsi, tout peut être interprété en termes d'expérience aléatoire, même si,

toutes les causes ne sont pas maîtrisées.

Exemple : la face qui résulte du jet d'un dé, le chiffre d'affaires d'une entreprise.

4.2 Résultat d'une épreuve :

Ce qui se produit réellement est appelé résultat de l'épreuve, ou réalité.

Exemple : le "6", 36 800 €

Page 23: Curso Magistral Mate Estadistica

23

4.3 Univers des possibles :

C'est l'ensemble de tout ce qui est susceptible de se produire dans le cadre d’une expérience

aléatoire. Il est généralement désigné par Ω.

Ω peut être fini, infini dénombrable ou infini non dénombrable.

Un ensemble est fini quand son cardinal est défini.

Un ensemble est infini dénombrable s'il a la puissance de IN l'ensemble des entiers naturels,

infini non dénombrable s'il a la puissance de IR l'ensemble des nombres réels.

Exemple : 1,2,3,4,5,6, [0 ; 200 000K€]

4.4 Evénements :

Un événement est une partie (et non un élément) de l'univers des possibles. Il est nécessaire de

bien distinguer les événements élémentaires des événements « tout court ».

Un événement élémentaire est un élément de Ω ou un singleton de P(Ω).

Exemple : 6

Un événement « tout court » est un élément de l'ensemble des parties de Ω.

Exemple : "un nombre pair" = 2,4,6

Un événement est réalisé si la réalité est un élément de cet événement, c’est-à-dire de cette partie

de Ω.

Page 24: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 24

Exemple : 2,4,6 est réalisé si c'est 6 qui est obtenu.

Evénement certain : un événement est certain s'il correspond à Ω, c'est-à-dire à la partie pleine de

P(Ω).

Evénement impossible : un événement impossible correspond à l'ensemble vide, qui ne peut

comprendre d’élément.

Evénements incompatibles : des événements sont incompatibles si la réalisation de l’un exclut la

réalisation des autres.

4.5 Correspondance entre ensembles et événements

Univers des possibles Ω Référentiel Ω

résultat possible a élément a de Ω

résultat réalisé r élément r (réalité)

événement A de Ω partie A de Ω

événement A réalisé r ∈ A

événement certain ensemble Ω

événement impossible ensemble vide

événement contraire de A complémentaire A de A

événement B non réalisé r ∉ B ou r ∈ B

événement A ou B A U B

événement A ou B réalisé r ∈ A U B

événement A et B A ∩ B

l'événement A et B est réalisé r ∈ A ∩ B

les événements A et B sont incompatibles A ∩ B = ∅

Page 25: Curso Magistral Mate Estadistica

25

l'événement A implique l'événement B A ⊆ B

système complet d'événements partition de Ω

4.6 Probabilité et fréquence :

Les probabilités peuvent être rapprochées de la notion de fréquence. Une probabilité est la

fréquence obtenue lors d'un grand nombre d'essais. J. BERNOULLI énonça au XVIIIe siècle la

loi des grands nombres ainsi : lorsque n augmente indéfiniment, la fréquence fn tend vers une

limite f qui est égale à la probabilité p. Cette loi est parfois considérée comme une tautologie, car

c'est justement ainsi que peut être défini la probabilité. Cette approche est dite a posteriori. Une

fréquence est une probabilité empirique.

Un raisonnement a priori peut permettre d'évaluer la probabilité d'un événement en rapportant le

nombre de façons de réaliser l'événement au nombre d'éventualités totales.

4.7 Définition axiomatique des probabilités :

Une définition axiomatique2 des probabilités, due à KOLMOGOROV, peut être donnée pour

éviter les difficultés des approches a priori et a posteriori.

Une probabilité est une application, de l'ensemble des parties de Ω dans l'intervalle [0, 1] de IR,

qui vérifie certains axiomes.

Une probabilité constitue une mesure d’ensemble.

IR

2 Un axiome est une vérité non démontrable qui s’impose avec évidence

Page 26: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 26

1

P(A)

0

4.7.1 Axiomes des probabilités :

P(A) ≥ 0 ∀ A ∈ P(Ω)

P(Ω) = 1

P( U An ) = ∑ P(An) où les An constituent une suite d'événements deux à deux incompatibles.

4.7.2 Propriétés des probabilités :

A ⊆ B ==> P(A) ≤ P(B) et P(B - A) = P(B) - P(A)

P(∅) = 0 _ P(A) = 1 - P(A)

0 ≤ P(A) ≤ 1

4.8 équiprobabilité :

Lorsque le bon sens indique qu'aucun événement élémentaire ne semble devoir être plus favorisé

qu'un autre, ces événements sont dits équiprobables. Cela signifie que chaque événement

élémentaire a la même probabilité, la distribution de probabilités est dite uniforme.

Exemple : Un dé non pipé.

A

Ω

Page 27: Curso Magistral Mate Estadistica

27

Si le cardinal de Ω est n, comme P(Ω) = 1, la probabilité d'un événement élémentaire est 1/card

Ω = 1/n.

Tout événement A correspondant à la réunion d'événements élémentaires, sa probabilité est card

A / card Ω.

Ce théorème permet de définir, de façon opérationnelle, la probabilité d'un événement comme

étant le rapport d'un nombre de cas favorables sur un nombre de cas également possibles. Il est

cependant nécessaire de ne pas oublier que les événements élémentaires doivent être

équiprobables.

Si p est la probabilité d’un événement, sa cote est p / q (p contre q), c’est le rapport de p sur q.

4.9 probabilités conditionnelles :

Une probabilité conditionnelle est une probabilité pour laquelle une information partielle sur le

résultat est donnée.

EXEMPLE : la probabilité d'avoir obtenu 6 sachant que le nombre obtenu est pair.

Il s'agit de déterminer la probabilité d'un événement A sachant que l'événement B est réalisé.

Le fait que B soit réalisé apporte une information plus ou moins grande quant à la réalisation de

A. Quoi qu'il en soit, l'univers des possibles peut alors se restreindre du fait de cette information.

Le possible est même connu puisqu'il s'agit de B qui remplace Ω.

A

Page 28: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 28

Exemple : Ω = 1,2,3,4,5,6 ----> B = 2,4,6

P(A/B) = Nombre cas favorables / Nombre cas possibles = cardA! BcardB

En divisant par card Ω haut et bas :

P(A/B) = P(A ∩ B) / P(B)

Exemple : P(6 / nombre pair) = 1 / 3

Ceci peut aussi s'écrire :

P(A ∩ B) = P(A/B) x P(B)

Comme l'intersection est commutative :

P(A ∩ B) = P(B/A) x P(A)

4.10 Indépendance :

Deux événements sont indépendants si la réalisation de l'un n'agit pas sur la réalisation de l'autre.

Si A et B sont indépendants, la connaissance de la réalisation de l'un n'apporte aucune

information, sur la probabilité de l'autre.

B

Ω

Page 29: Curso Magistral Mate Estadistica

29

P(A/B) = P(A) ==> P(A ∩ B ) = P(A) x P(B)

A et Ø sont indépendants

A et Ω sont indépendants

A et B sont indépendants si et seulement si A et non B sont indépendants

L’indépendance se distingue de l’incompatibilité.

Supposons A et B à la fois indépendants et incompatibles :

P(A ∩ B ) = P(A) x P(B) (Indépendance)

P(A ∩ B ) = P(Ø) = 0 (Incompatibilité)

donc P(A) ou P(B) = 0

A et B sont compatibles et indépendants :

P(A ∪ B) = P(A) + P(B) - P(A).P(B)

A et B sont compatibles et dépendants :

P(A ∪ B) = P(A) + P(B) - P(A).P(B/A)

Exemple : P(6 / le dé est blanc) = P(6)

4.11 Théorème de BAYES :

Le théorème de BAYES est encore appelé théorème des probabilités des causes.

Soient deux causes incompatibles, il est généralement possible d'évaluer leurs effets et de

déterminer a priori les probabilités des effets connaissant les causes. Le théorème de BAYES

permet de calculer, alors, la probabilité des causes sachant que les effets se sont produits.

Page 30: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 30

E non E

C P(E/C) P(C)

non C 1 - P(C)

P(C /E) =nombre de cas favorables

nombre de cas egalement possibles

P(C /E) =P(E!C)

P(E)=

P(E! C)

P(E!C) + P(E!C)

_ __ P(C/E) = (P(E/C).P(C)) / (P(E/C).P(C) + P(E/C).P(C))

EXEMPLE : L’équipe de France de rugby gagne (E) 8 fois sur 10 quand il fait beau (C) et 4 fois

sur 10 quand il pleut (non C). La météo indique qu’il fait beau une fois sur 3. Sachant que les

Français ont gagné, quelle est la probabilité qu’il ait fait beau ?

p(C/ E) =

810 x

13

810 x

13 +

410 x

23

=

830

1630

=8

16= 0,5

4.12 Théorème des probabilités totales :

Un axiome, de la définition des probabilités, supposait que si A et B étaient des événements

incompatibles, la probabilité de A ∪ B était la somme des probabilités de A et de B. Le théorème

suivant généralise l'axiome au cas où A et B sont quelconques.

P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

si A ∩ B = ∅ alors P(A ∪ B) = P(A) + P(B)

Page 31: Curso Magistral Mate Estadistica

31

EXEMPLE : Au jet d’un dé, quelle est la probabilité d’obtenir 6 (A) ou un nombre pair (B).

P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

= 1/6 + 3/6 - 1/6 = 3/6 = 1/2

4.13 Formule de POINCARE

La formule de POINCARE généralise le théorème des probabilités totales au cas de n

événements. Soit un ensemble E fini, soit A1, A2, ..., An des parties de E

P(∑Ai) = ∑ P(Ai) - ∑ P(Ai∩Aj) + ∑ P(Ai∩Aj∩Ak) - ... i i<j i<j<k Cette formule donne la probabilité de (A1 ou A2 ou ... ou An)

EXEMPLE : Dans un bal 4 couples dansent le rock. Une coupure d’électricité sépare les couples.

Chaque cavalier choisit alors une partenaire au hasard. Quelle est la probabilité qu’il y ait au

moins un cavalier qui retrouve sa cavalière du départ ?

P(Ai) = 0,25 = 1/4

P(Ai ∩ Aj) = 0,25 x 0,33 = 0,0825 = 1/4 x 1/3

P(Ai ∩ Aj ∩ Ak) = 0,04125 = 1/4 x 1/3 x 1/2

P(AI ∩ Aj ∩ Ak ∩ Al) = 1 / 4! = 0,04125 = 1/4 x 1/3 x 1/2 x 1/1

p Aii=1

4

U!

" # #

$

% & & = C

4

1O, 25 ' C4

20, 0825 + C

4

30, 04125 ' C

4

40, 04125

= 4x0, 25 ' 6x0, 0825 + 4x0, 04125 ' 0, 04125 = 1 ' 0, 495 + 0,165 ' 0, 04125 = 0, 6283

Page 32: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 32

4.14 Exercices

EXERCICE : On jette une pièce de monnaie 3 fois de suite. Soit A l’événement : le même côté

apparaît trois fois et l’événement B : le côté face apparaît au moins deux fois.

Donner la composition de l’univers des possibles

Avec l’arbre dichotomique :

PPP

PPF

PFP

PFF

FPP

FPF

FFP

FFF

1er jet 2ème jet 3ème jet

Ω

Page 33: Curso Magistral Mate Estadistica

33

Autre méthode : Avec le produit cartésien

Ω = P, F

Ω Ω P F

P (P, P) (P, F)

F (F, P) (F, F)

Ω2 = Ω x Ω

Ω x Ω Ω P F

PP PPP PPF

PF PFP PFF

FP FPP FPF

FF FFP FFF

Ω3 = Ω x Ω X Ω

Donner le cardinal de Ω.

Card Ω3 = 23 = 8

Avec l’analyse combinatoire :

Anp = np = 23 = 8 (arrangement avec répétition)

Donner la composition des événements A, B, A ∩ B

A = PPP, FFF Card A = 2

B = FFP, PFF, FPF, FFF Card B = 4

A ∩ B = FFF Card A ∩ B = 1

En déduire la probabilité de chacun des trois événements.

Page 34: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 34

P(A) = 2 / 8 = 0,25

P(B) = 4 / 8 = 0,5

P(A ∩ B) = 1 / 8 = 0,125

EXERCICE : On tire 8 cartes d’un jeu de 32

Probabilité d’avoir 2 as ?

Probabilité d’avoir k as ?

Probabilité d’avoir au moins 1 as ?

P(1 as ou 2 as ou 3 as ou 4 as) = 1 - P(0 as) = 1 ! C40xC

28

8

C32

8

Probabilité d’avoir au plus 1 as ?

P(1 as ou 0 as) = C4

1xC

28

7

C32

8+C4

0xC

28

8

C32

8

Probabilité d’avoir 2 as et 3 piques dont l’as de pique ?

C1

1xC

3

1xC

7

2xC

21

4

C32

8

EXERCICE : Un sac contient 4 billes rouges et 6 billes noires. On tire 2 billes successivement et

on s’intéresse à la probabilité de l’événement : la première bille tirée est rouge et la seconde est

noire. Quelle est la probabilité de (R1 et N2) ?

P(R1 et N2) = P(R1 ∩ N2) = P(N2/R1) x P(R1)

a) si on remet la première bille tirée dans le sac avant le deuxième tirage ?

P(R1 et N2) = P(R1 ∩ N2) = P(N2) x P(R1) = 6/10 x 4/10 = 24/100

b) si on ne la remet pas ?

P(R1 et N2) = P(R1 ∩ N2) = P(N2/R1) x P(R1) = 6/9 x 4/10 = 24/90

Page 35: Curso Magistral Mate Estadistica

35

5 VARIABLES ALEATOIRES REELLES

5.0.1 Définition d’une variable aléatoire :

Une variable aléatoire est, en fait, une application déterminée. Il ne s'agit, en effet, ni d'une

variable, ni d'une quantité aléatoire. C'est une application de Ω dans IR qui, à chaque événement,

fait correspondre un nombre réel. Il s'agit, en fait, d'une sorte de codage plus ou moins arbitraire.

L'objectif poursuivi est de permettre d'appliquer le calcul numérique à des événements dont la

définition, ou l’expression, est souvent littéraire.

ex : P(face du dé comprend 3 points) se traduit par P(X = 3)

Les variables aléatoires sont généralement représentées par X, ou par une autre lettre majuscule,

les minuscules étant réservées aux valeurs certaines prises par les v. a.

ei ∈ Ω ------> X(ei) = xi ∈ IR

IR

Ω 1

ei P(X = xi)

0

X(ei)=xi IR

EXEMPLE : A la belote le valet d’atout correspond à X = 20

Page 36: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 36

Deux cas sont à distinguer :

- Les valeurs prises par l'application sont en nombre fini ou infini dénombrable, la

variable est dite discrète.(éléments distinguables)

- Les valeurs sont en nombre infini non dénombrable, la variable est dite continue.

(éléments fusionnés)

Il est donc toujours nécessaire de définir X et X(Ω), l'ensemble des valeurs théoriquement prises

par la variable aléatoire.

Deux types de variables aléatoires sont à distinguer : les variables discrètes (5.1) et les variables

continues (5.2).

5.1 Variables aléatoires discrètes

Il y a deux types de variables aléatoires discrètes :

- les v.a. discrètes finies : l'ensemble des valeurs possibles est fini.

- les v.a. discrètes infinies : l'ensemble des valeurs possibles est infini, mais dénombrable.

Les points suivants sont abordés : loi de probabilité (5.1.1), fonction de répartition (5.1.2) et

moments (5.1.3).

5.1.1 loi de probabilité :

c'est l'ensemble des couples (xi, pi), qui, à chaque événement i représenté par la valeur de la

variable aléatoire associé xi, fait correspondre sa probabilité, pi.

pi = P(X = xi)

Page 37: Curso Magistral Mate Estadistica

37

∑ pi = 1 i xi pi = P(X = xi)

1 0,10

2 0,50

3 0,35

4 0,05 Pi

0 1 2 3 4 xi

5.1.2 fonction de répartition :

c'est l'application F de IR dans IR définie par :

-1 F(x) = P(X ≤ x) = P(X ] -∞, x [) (définition anglo-saxonne)

Page 38: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 38

La définition française est F(x) = P(X < x) = ∑ pi i

Il s'agit donc d'effectuer le cumul des probabilités pour les valeurs de X inférieures ou égales à x.

xi P(X ≤ xi)

1 0,10

2 0,60

3 0,95

4 1

P(X ≤ xi)

0 1 2 3 4 xi

Propriétés :

F est une fonction en escalier croissante de 0 à 1, continue à droite.

5.1.3 moments

Les moments sont des valeurs caractéristiques de la variable. Ils renseignent sur son ordre de

Page 39: Curso Magistral Mate Estadistica

39

grandeur, sa dispersion, sa symétrie, etc.

5.1.3.1 espérance mathématique :

L’espérance mathématique correspond à la moyenne arithmétique étudiée en statistique

descriptive. C’est le moment non centré d’ordre 1.

E(X) = ∑ xi P(X = xi) = ∑ pi xi i i propriétés de l'espérance :

E(a) = a

E(aX) = a E(X)

E(X+a) = E(X) + a

E(ΣX) = Σ E(X)

xi pi xi pi

1 0,10 0,1

2 0,50 1

3 0,35 1,05

4 0,05 0,2

E(X) = 2,35

5.1.3.2 variance

faible E(X) forte E(X)

La variance est le moment centré d’ordre 2 : 2 2 2 V(X) = E[X-E(X)] = E(X ) - (E(X)) (KOENIG) 2 2

Page 40: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 40

V(X) = ∑ pi xi - (E(X)) i

xi pi xi2 pi

1 0,10 0,1

2 0,50 2

3 0,35 3,15

4 0,05 0,8 V(X) = 6,05 - (2,35)2 = 0,53 propriétés de la variance : V(a) = 0 2 V(aX) = a V(X)

V(X + a) = V(X)

V(ΣX)≠∑ V(X) en général sauf si les variables sont indépendantes

Ecart type :

Pour se ramener à la même unité que la variable, on calcule l’écart type. La variance faisant

intervenir le carré de la variable, l’écart type se calcule en prenant la racine carrée de la variance.

ET(X) = 0,728

5.1.3.3 autres moments

moments non centrés d'ordre r : r r mr = E(X ) = ∑ pi xi i r = 1 espérance mathématique moments centrés d'ordre r : r r µr = E[X - E(X)] = ∑ pi [xi - E(X)] i r = 2 variance Les moments n'existent que si les séries convergent.

Page 41: Curso Magistral Mate Estadistica

41

EXERCICE : On a placé dans une urne 4 pièces de 0,1 € et 6 pièces de 0,5 €. On tire

simultanément 2 de ces pièces. On définit une variable aléatoire X par le total des pièces tirées.

a) Quelles sont les valeurs possibles de X ?

b) Loi de probabilité de X ?

c) Fonction de répartition de X ?

d) Espérance mathématique de X ?

e) Variance de X ?

a) X(Ω) = 0,2 ; 0,6 ; 1

b) P(X = 0,2) = 12/90 = 0,13

P(X = 0,6) = 48/90 = 0,53

P(X = 1) = 30/90 = 0,34

C) P(X ≤ x)

P(X ≤ 0,2) = 12/90 = 0,13

P(X ≤ 0,6) = 60/90 = 0,66

P(X ≤ 1) = 90/90 = 1

d) E(X) = 0,13 x 0,2 + 0,53 x 0,6 + 0,34 x 1 =

E(X) = 0,026 + 0,318 + 0,34 = 0,684 €

e) E(X2) = 0,0052 + 0,1908 + 0,34 = 0,536 €2

V(X) = 0,13 x 0,22 + 0,53 x 0,62 + 0,34 x 12 - 6,842 =

V(X) = 0,536 - 6,842 = 0,068144 €2

ET(X) = 0,261044 €

5.2 variable aléatoire continue

L'ensemble des valeurs possibles pour une variable aléatoire réelle continue est infini non

dénombrable ce qui leur donne un caractère de continuité. Les valeurs ne sont plus distinguables.

Page 42: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 42

Les événements de la forme X = x sont de probabilité nulle, non parce qu'ils sont impossibles,

mais parce qu'ils exigent une trop grande précision. En revanche, se situer à proximité de x c’est-

à-dire dans un voisinage ([x-ε ; x+ε]) proche de X = x est probable.

Pour une variable aléatoire continue, il est dit qu’il n’existe pas de probabilité ponctuelle. En

géométrie, le point est réputé être sans dimension, il ne peut donc être l’objet d’une mesure. Or,

la probabilité est précisément une mesure d’ensemble.

Les concepts sont les suivants : fonction de répartition (5.2.1), propriétés de la fonction de

répartition (5.2.2), variable aléatoire absolument continue (5.2.3), densité de probabilité (5.2.4),

propriété de la fonction densité (5.2.5), probabilité d’un intervalle (5.2.6), moments (5.2.7).

5.2.1 fonction de répartition

Puisque les probabilités ponctuelles sont nulles, les variables continues seront définies par la

probabilité d'intervalles.

Ainsi, peuvent être considérés des événements de la forme :

X ∈ ] -∞ , x [ ou X < x

La probabilité de tels événements est la probabilité cumulée jusqu'à x.

F(x) = P(X < x)

Tout intervalle [x-ε ; x+ε] peut être considéré comme la différence entre deux événements du

type ] -∞ , x [ :

] -∞ , x+ε [ - ] -∞ , x-ε [

F(x) est appelée fonction de répartition.

5.2.2 Propriétés de la fonction de répartition

F est continue, croissante au sens large sur IR

Page 43: Curso Magistral Mate Estadistica

43

lim F(x) = 1 quand x --> + ∞

lim F(x) = 0 quand x --> - ∞

F est dérivable sur IR sauf, peut être, sur un ensemble fini de points, où elle est dérivable à

gauche et à droite.

F est continue à gauche en tout point.

F a une dérivée continue

1

0

5.2.3 variable aléatoire absolument continue

X est absolument continue si, et seulement si :

- F admet, sauf peut être en certains points en nombre fini, une dérivée f ≥ 0 qui possède

certaines propriétés.

- F(x) = f (t)

!"

x

# dt

5.2.4 densité de probabilité

La fonction f(x) représente une densité de probabilité de X.

C’est ce qui correspond, dans le cas continu, à la loi de probabilité, dans le cas discret.

F(x)

x

Page 44: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 44

L'élément différentiel f(x) dx est appelé probabilité élémentaire, c'est ce qui, par abus de langage,

correspond à la probabilité pi (car la probabilité ponctuelle n'existe pas).

f(x) dx = P(x ≤ X < x + dx)

f(x) est la dérivée de la fonction de répartition F(x).

5.2.5 propriétés de la fonction densité

f est positive ou nulle

f est continue par morceaux sur IR

f admet une limite finie à gauche et à droite là où elle est discontinue

f (x)!"

+"

# dx = 1

5.2.6 probabilité d'un intervalle

P(a ≤ X ≤ b) = F(b) - F(a) =

f(x)

a

b

! dx = f(x)dx " f(x)dx

"#

a

!"#

b

!

P(a ≤ X ≤ b) = P(a < X < b)

5.2.7 moments

5.2.7.1 espérance mathématique :

Page 45: Curso Magistral Mate Estadistica

45

E(X ) = xf (x)!"

+"

# dx

L’espérance mathématique a, bien entendu, les mêmes propriétés que dans le cas discret.

5.2.7.2 variance :

V(X) = x ! E(x )( )2f(x)

!"

+"

# dx = x2

!"

+"

# f(x)dx ! xf(x)dx

!"

+"

#$

% &

'

( )

2

V(X) = E(X2)-E2(X)

La variance a, bien entendu, les mêmes propriétés que dans le cas discret.

A partir de la variance, on calcule l’écart type. L’écart type est la racine carrée de la variance.

5.2.7.3 autres moments

non centré d'ordre r :

E(Xr) = x

rf (x)

!"

+"

# dx

centré d'ordre r :

Page 46: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 46

E(Xr) = x ! E(x)( )

rf (x)

!"

+"

# dx

EXERCICE :

f(x) =k

xpour x ! 1, 4[ ]

= 0 sinon

a) Calculer k pour que f soit une densité

b) Etudier la fonction

c) Déterminer la fonction de répartition

d) Calculer l’espérance mathématique

e) Calculer la variance

a)

k

x1

4

! dx = 1

k x

"1

2

1

4

! dx = 1

2k x

1

2#

$ %

&

' ( 1

4

= 1

2k 4 " 1( ) = 1

k =1

2

b)

f ' (x) = !1

2"1

2x

!3

2 < 0

x 0 1 4 +∞

f’ -

1/2

Page 47: Curso Magistral Mate Estadistica

47

f +∞

0

c)

F(x) =1

2 t1

x

! dt = t

1

2"

# $

%

& ' 1

x

= x

1

2 (1

d)

E(x) =x

2 x1

4

! dx =1

2x

1

2

1

4

! dx =1

2"2

3x

3

2#

$ %

&

' ( 1

4

=1

34

3

2 ) 13

2*

+ , -

. / =

1

38 )1( ) =

7

3

e)

1/4

1/2

1/4

1 4

1

1 4

Page 48: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 48

V(x) =x2

2 x1

4

! dx " E2 (x) =1

2x

3

2

1

4

! dx "7

3

# $ % &

2

=1

2'2

5x

5

2(

) *

+

, - 1

4

"7

3

# $ % &

2

=1

54

5

2 "15

2#

$ . %

& / "

7

3

# $ % &

2

=1

532 "1( ) "

49

9=31x9

45"49x5

45=279 " 245

45=34

45

Page 49: Curso Magistral Mate Estadistica

49

6 PRINCIPALES LOIS DE PROBABILITES

Les lois de probabilités se distinguent en lois discrètes (6.1) et lois continues (6.2).

6.1 Principales lois discrètes

Les différents types de distributions empiriques de fréquences peuvent se ramener à des

distributions relatives à un certain nombre d'expériences aléatoires types. Ces phénomènes types

sont appelés des lois théoriques. Les modèles d'urne permettent d'illustrer de telles expériences.

Le problème consiste généralement à reconnaître la loi suivie par un phénomène empirique

aléatoire observé.

La description des principales lois tant par la définition de l'épreuve, que par le graphe du

résultat, permet, par la comparaison avec les observations empiriques, de résoudre ce problème.

Les principales lois discrètes sont : loi certaine (6.1.1), loi uniforme (6.1.2), loi de Bernoulli

(6.1.3), loi binomiale (6.1.4), loi de Poisson (6.1.5), loi multinomiale (6.1.6), loi géométrique

(6.1.7) et loi hypergéométrique (6.1.8).

6.1.1 loi certaine

Une variable certaine est une v.a. X constante. L’urne ne contient qu’une catégorie d’éléments.

X(Ω) = a

loi de probabilité :

P(X = a) = 1

moments :

E(X) = a

V(X) = 0

Page 50: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 50

6.1.2 loi uniforme

Cette v.a. correspond au numéro d'un objet choisi au hasard parmi n, numérotés de 1 à n

(équiprobabilité). L’urne contient des boules numérotées. On tire une boule au hasard. On note

son numéro.

X(Ω) = [1 , n] ∈ IN X prend n valeurs, n étant fini.

loi de probabilité :

P(X = xi) = 1/n

P(x) F(x)

moments :

E(X) = (n + 1) / 2

V(X) = (n2 - 1) / 12

Coefficient d'asymétrie 0

Coefficient d'aplatissement -6/5 (n2+1)/(n2-1) + 3

EXEMPLE : On jette un dé non pipé.

6.1.3 loi de BERNOULLI

Une v.a. X de BERNOULLI est une v.a. qui ne prend que les valeurs 0 et 1 avec des probabilités

non nulles.

Page 51: Curso Magistral Mate Estadistica

51

Cette v.a. correspond au résultat d'une expérience comportant deux issues E et S. Elle est aussi

dénommée variable indicatrice, car elle permet d'indiquer si un événement s'est produit ou pas.

L’urne contient deux catégories de boules en proportion p et q. On effectue un tirage, et on note

si c’est un succès ou un échec.

X(Ω) = 0 , 1 O pour échec, 1 pour succès

loi de probabilité :

P(X = 1) = p P(X = 0) = q = 1 - p

moments :

E(X) = p

V(X) = pq

6.1.4 loi binomiale

Une loi binomiale correspond à la répétition de n épreuves indépendantes de BERNOULLI.

Cela correspond à n tirages, avec remise, dans une urne comprenant deux catégories d'éléments

en proportion p et q.

La variable X représente le nombre k de succès obtenus.

X(Ω) = [0 , n]

loi de probabilité :

Son nom provient du développement de la puissance d'un binôme : 2 2 2 0 2 1 2 2 ( p + q ) = p + 2 pq + q = C2 p + C2 pq + C2 q k k n-k P(X = k) = Cn p q

moments :

Espérance E(X) = np

Page 52: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 52

Variance V(X) = npq

Coefficient d'asymétrie (q - p) / √(npq)

Coefficient d'aplatissement ((1 - 6pq) / npq) + 3

somme :

La somme de variables aléatoires indépendantes suivant des lois binomiales de paramètres (n1 ,

p) et (n2 , p), donc de même probabilité de succès p, est une variable aléatoire suivant une loi

binomiale de paramètres (n1 + n2 , p).

comportement asymptotique :

La loi binomiale peut être approximée par une loi de POISSON si n ≥ 30, p ≤ 0,1 , np ≤ 10.

La loi binomiale peut être approximée par une loi normale si n > 20, p et q voisin de 0,5 , np et

nq > 15.

EXEMPLE : On prélève au hasard 50 spécimens dans une chaîne de mise en boîtes de conserve

et l’on en pèse le contenu. On s’intéresse au nombre de boîtes qui ont un poids supérieur ou égal

au poids indiqué.

6.1.5 loi de POISSON

La loi de POISSON concerne des phénomènes à caractère accidentel, soit de faible probabilité.

Elle concerne des tirages avec remise dans une urne comprenant deux catégories d’éléments.

X suit une loi de POISSON de paramètre λ si X ∈ IN

X(Ω) = IN

loi de probabilité :

!

P(X = k) =e"##k

k!

moments :

Page 53: Curso Magistral Mate Estadistica

53

E(X) = λ

V(X) = λ

Coefficient de symétrie 1/√λ

Coefficient d'aplatissement 3 + (1/λ)

somme :

La somme de deux variables aléatoires indépendantes suivant des lois de POISSON est une

variable de POISSON dont le paramètre est la somme des paramètres.

comportement asymptotique :

La loi de POISSON est la limite d'une loi binomiale. Le paramètre λ (espérance de la loi de

Poisson) est égal à np (espérance de la loi binomiale).

Les conditions à vérifier pour que l'approximation soit relativement correcte sont :

n ≥ 30 , p ≤ 0,1 , np ≤ 10

La loi de POISSON peut être approximée par une loi normale si np > 15.

(X - λ ) / √λ suit une N(0,1) pour λ grand

EXEMPLE : Une nuit d’été, on observe en moyenne une étoile filante toutes les 10 minutes.

Quelle est la probabilité d’en observer 2 en un quart d’heure ?

6 par h. donc λ = 1,5 par quart d’h. P(X = 2) = 0,25

6.1.6 loi multinomiale

Généralisation de la loi binomiale.

Tirages avec remise (donc indépendants) de n éléments dans une urne à m catégories d'éléments

en proportion p1, ..., pm.

On cherche la probabilité d’obtenir un Nombre nj d'éléments de type j.

Page 54: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 54

loi de probabilité : n1 nm P(N1 = n1, ..., Nm = nm) = n! / (n1! ... nm!) p1 ... pm moments :

E(Nj) = n pj

V(Nj) = n pj qj

Cov(Nj,Nk) = - n pj pk j = k

EXEMPLE : On dispose de 3 livres en français, 2 en anglais et 1 en espagnol. On tire avec remise

deux livres au hasard. Quelle est la probabilité de tirer 1 livre en anglais et celui en espagnol ?

p1 = 3/6 = 1/2 p2 = 2/6 = 1/3 p3 = 1/6

P =2!

1!1!

1

2

! " # $

01

3

! " # $

11

6

! " # $

1

=1

9% 11%

6.1.7 loi géométrique

Tirages, avec remise, dans une urne comprenant deux catégories d'éléments en proportion p (S) et

q (E).

La variable correspond au rang x du premier succès.

Cette loi correspond à une loi de PASCAL d'ordre 1.

X(Ω) = IN*

loi de probabilité : x-1 P(X = x) = q p moments :

E(X) = 1 / p 2 V(X) = q / p

Page 55: Curso Magistral Mate Estadistica

55

EXEMPLE : Un tireur à l’arc atteint le centre de la cible 1 fois sur 4. Quelle est la probabilité

qu’il réussisse pour la première fois au deuxième tir ?

p = 0,25 q = 1 – 0,25 = 0,75

P(X = 2) = q p = 0,75 x 0,25 = 0,1875 = 18,75 %

6.1.8 loi hypergéométrique

Tirages, sans remise, donc dépendants, dans une urne de N éléments répartis en deux catégories

d'éléments de proportion p (S) et q (E).

La variable X est le nombre x de succès en n tirages.

X(Ω) inclus dans [0 , n]

loi de probabilité :

!

P(X = k) =CNp

kCNq

n"k

CN

n

moments :

E(X) = n p

V(X) = npq (N - n) / (N - 1)

comportement asymptotique :

La loi hypergéométrique peut être approximée par une loi binomiale si :

N est grand et si n/N < 0,1

EXEMPLE : On tire 8 cartes d’un jeu de 32, quelle est la probabilité d’avoir 4 as ?

Page 56: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 56

6.2 Principales lois de variables continues

Les principales lois de probabilités sont : la loi uniforme continue (6.2.1), loi normale (6.2.2),

loi du khi-deux (6.2.12), loi de student (6.2.13) et la loi de Fisher Snédécor (6.2.15).

6.2.1 loi uniforme continue

Une loi uniforme est définie par :

X(Ω) = [a,b]

fonction densité :

f(x) = constante sur [a , b]

f(x) = 0 ailleurs

Du fait de la propriété de la fonction densité :

f(x) = 1 / (b - a) 1I[a,b] (x)

fonction de répartition :

F(x) = 0 x ≤ a

F(x) = (x - a) / (b - a) a < x ≤ b

F(x) = 1 x > b

Page 57: Curso Magistral Mate Estadistica

57

moments :

E(X) = (a + b) / 2

V(X) = (b - a)2 / 12

Coefficient d'asymétrie 0

Coefficient d'aplatissement 9/5

6.2.2 Loi normale

La loi normale ou de LAPLACE-GAUSS est une des lois les plus importantes car elle sert à

représenter de nombreux phénomènes.

Lorsqu’un phénomène résulte de multiples causes aléatoires indépendantes, dont aucune ne

domine, il suit une loi normale.

X est une variable aléatoire réelle absolument continue suivant une loi normale de paramètres :

espérance µ et écart type σ.

X(Ω) = ] -∞,+∞ [

fonction densité :

S

S

a b x

1

Page 58: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 58

!

f (x) =1

" 2#e

$1

2" 2(x$µ )2

X est symétrique par rapport à µ. E(X) = µ est aussi médiane.

fonction de répartition :

P(X ≤ x) = F(x) = f (t)!"

x

# dt

de même :

P(a ≤ X ≤ b) = f (x)

a

b

! dx

Le calcul de ces intégrales étant peu facile, les valeurs de la fonction de répartition sont

répertoriées dans une table, tabulées. Mais, le nombre de couples (µ,σ) étant infini, il devrait

exister un nombre infini de tables. Afin de pallier cet inconvénient, il est défini une loi dite

normale standard. Cette loi normale est aussi appelée loi centrée réduite, car ses paramètres sont

µ = 0 et σ = 1.

fonction densité :

!

f (x) =1

2"e

#1

2(x )

2

Pour passer d'une variable X, suivant une loi normale quelconque, à une variable Z suivant la loi

Page 59: Curso Magistral Mate Estadistica

59

centrée réduite, il faut effectuer le changement de variable

!

Z =X "µ

#

La table de la loi normale centrée réduite ne reproduit généralement les valeurs de P(Z < z),

notées φ(z), que pour les valeurs de Z ≥ 0. Un certain nombre de relations sont donc utiles pour se

servir des tables :

P(Z > z) = 1 - P(Z < z)

P(Z < - z) = 1 - P(Z < z)

P(Z > - z) = P(Z < z)

P(|Z| ≤ z) = 2 P(Z < z) - 1

P(|Z| ≥ z) = 2 ( 1 - P(Z < z) )

P(a < Z < b) = P(Z < b) – P(Z < a)

Quelques valeurs sont intéressantes :

P(-1<Z<+1) = 0,6827 P(-2<Z<+2) = 0,9545 P(-3<Z<+3) = 0,9973

moments :

E(X) = µ

V(X) = σ2 agit sur la largeur de la distribution et sur la hauteur.

coefficient de symétrie 0

coefficient d'applatissement 3

comportement asymptotique :

approximation d'une loi binomiale :

X suit une loi binomiale (n,p)

si n --> ∞ (X - np)/√(npq) suit une loi normale (0,1)

conditions : n grand, p proche de 0.5 (0,1 < p < 0,9)

soit np > 15

Page 60: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 60

en pratique n > 50 (fin des tables binomiales)

correction de continuité :

Comme la loi Normale est une loi continue, la probabilité ponctuelle n’existe pas.

Donc P(X = xi) = 0

La largeur du rectangle est 1 donc la surface est f(xi).

Les deux triangles étant approximativement égaux, la surface est toujours f(xi).

xi Xi+0,5 xi-0,5

f(xi)

xi Xi+0,5 xi-0,5

f(xi)

Page 61: Curso Magistral Mate Estadistica

61

P(X = xi) = P(xi - 0.5 ≤ X ≤ xi + 0.5)

somme algébrique de variables normales indépendantes:

X1 suit une loi normale (µ1 ,σ1)

X2 suit une loi normale (µ2 ,σ2)

X1 + X2 suit une loi normale [(µ1 + µ2);√(σ12 + σ22)]

X1 - X2 suit une loi normale [(µ1 - µ2);√(σ12 + σ22)]

EXEMPLE 1: La capacité respiratoire de 400 hommes suit une loi normale de paramètres 3,7 l en

moyenne et de 0,7 l d’écart type. Quel est le nombre de personnes qui ont une capacité

respiratoire inférieure ou égale à 3,21 l.

P(Z < - 0,7) = 1 - P(Z < 0,7) = 1 - 0,75804 = 0,24196

n = 400 x 0,24196 ≈ 96

EXEMPLE 2 : La durée de vie de 2000 lampes suit une loi normale N(1000, 200). Après

combien d’heures d’utilisation peut-on estimer que 10 % des lampes sont hors d’usage.

P(X ≤ x) = 0,1

1 - P(Z ≤ ?) = 0,9

table : P(Z ≤ 1,285) = 0,9

1,285 = - x !1000200

X = 1000 - 1,285 x 200 = 743 h

6.2.12 loi du khi-deux

La loi du khi-deux (de PEARSON), à n degrés de liberté est la loi suivie par une variable

Page 62: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 62

aléatoire égale à la somme des carrés de n variables aléatoires indépendantes suivant toutes la loi

normale N (0,1).

X(Ω) = [0,+∞ [

fonction densité :

f(x) = (2 n/2 Γ(n/2))-1 e-x/2 x(n/2)-1 1IIR+(x)

fonction de répartition:

voir table

moments :

E(X) = n

V(X) = 2n

somme :

La variable aléatoire, formée par la somme de deux variables aléatoires indépendantes suivant

des lois du khi-deux à n et m degrés de liberté, suit une loi du khi-deux à n+m degrés de liberté.

comportement asymptotique :

!

X " n

2n converge en loi vers une N(0,1) quand n --> ∞

En pratique n > 100

Cette loi est utile pour les tests d’indépendance entre deux variables, les tests d’adéquation d’une

distribution empirique à une loi théorique, etc.

6.2.13 loi de STUDENT (W. S. GOSSET)

La variable aléatoire :

!

T =X

Y

n

suit une loi de STUDENT à n degrés de liberté si X suit une N(0,1) et Y un khi-deux à n degrés

de liberté, X et Y étant indépendantes.

Page 63: Curso Magistral Mate Estadistica

63

X(Ω) = ] -∞,+∞ [

fonction de répartition:

voit table

moments :

E(T) = 0

!

V (T) =n

n " 2 n > 2

comportement asymptotique :

T converge en loi vers une N(0,1) lorsque n --> ∞ (n > 30)

Cette loi est utile pour l’établissement d’intervalles de confiance, pour les tests de signification de

coefficients de régression, etc.

6.2.15 loi de FISHER-SNEDECOR

La variable :

!

F =

X

n

Y

m

suit une loi de FISHER-SNEDECOR à n et m degrés de liberté si X et Y sont deux variables

aléatoires indépendantes suivant des khi-deux respectivement à n et m degrés de liberté.

fonction de répartition :

voir table

moments :

E(X) = n / (n - 2) n > 2

V(X) = 2 n2 (m+n-2) / m (n-2)2 (n-4) n > 4

F1-p,n,m = 1/Fp,m,n

Page 64: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 64

Cette loi est utile pour l’établissement d’intervalles de confiance, pour les tests d’hypothèses, etc.

Page 65: Curso Magistral Mate Estadistica

65

BIBLIOGRAPHIE

ANDERSON D. R. SWEENEY D. J. WILLIAMS T. A., Statistiques pour l’économie et la gestion, De Boeck Université, 2001. AUDROING J.-F. ABBOUD N., Probabilités et inférence statistique, Nathan. AULIAC G., Probabilités et statistique. Cours et exercices corrigés, Ediscience international, 1995. AVENEL M. RIFFAULT J.-F., Mathématiques appliquées à la gestion, Foucher, 2005. BENICHOU P. et R. BOY N. POUGET J.-P., Statistique et probabilités, Dunod, 1992. BERRUNDO-AGRELL M. FOURASTIE J., Pour comprendre les probabilités, Hachette, 1994. BOREL E., Probabilité et certitude, P.U.F., 1969. BOUGET D. VIENOT A., Traitement de l’information : statistiques et probabilités, Vuibert, 1995. BOURSIN J.-L., Comprendre les probabilités, Cursus, Armand Colin, 1989. BOURSIN J.-L., Les structures du hasard. Les probabilités et leurs usages, Seuil, 1986. BOUZITAT C. BOUZITAT P. PAGES G., Statistique : probabilités - estimation ponctuelle, Cujas, 1991. BOY C. NIZARD A., Exercices corrigés de probabilités, Armand colin, 1995. CALOT G., Cours de calcul des probabilités, Dunod, 1989. CALOT G., Exercices de calcul des probabilités, Dunod, 1989. COMTE M. GADEN J., Statistiques et probabilités pour les sciences économiques et sociales, PUF, 2000. CORNUEL D. DERREUMAUX, Calcul des probabilités, exercices corrigés, rappels de cours, Sirey, 1976. DAGNELIE P., Théorie et méthodes statistiques, Presses agronomiques de Gembloux, 1985 DEGRAVE C. DEGRAVE D. BOULANGER, Probabilités Statistiques, Bréal.

DEGRAVE C. DEGRAVE D. BOULANGER, Problèmes résolus de Probabilités Statistiques,

Bréal.

DEGRAVE BOULANGER, Précis de mathématiques tome 3 : Probabilités Statistiques, (préparation HEC) Breal.

Page 66: Curso Magistral Mate Estadistica

M. MENOU / PROBABILITES ET STATISTIQUE 66

DEHEUVELS P., La probabilité, le hasard et la certitude, QSJ 3, PUF, 1990. DEVINAT H. POULOS D. RABINO P., Statistique et probabilités - Problèmes et corrigés, Economica, 1989. DUBOS J., Collecte des traitements statistiques de l'information économique et sociale : 1 Echantillonnage - Estimation, Cujas, 1987. DUGACHEV V., Théorie des probabilités et statistiques mathématiques, Mir 1982 DUSSAIX A.-M. GROSBRAS J.-M., Les sondages : principes et méthodes, QSJ 701, PUF, 1993. FAVRO E., Statistique et probabilités, Dunod, 1991. FOURASTIE J. SAHLER B., Probabilités et statistique, Dunod, 19. FOURASTIE J. LASLIER J.F., Probabilité et statistique, Série J. QUINET, Dunod, 1990. FOURGEAUD C. FUCHS A., Statistique, Dunod, 1972. GHORBANZADEH D., Probabilités. Exercices corrigés, Technip, 1998. GRAIS B., Méthodes statistiques, Dunod, 1992. HAMMAD P., Cours de probabilités, Cujas, 1985. HAMMAD P. TARANCO A., Exercices de probabilités, Cujas, 1985. HARARI J. PERSONNAZ D., Cours de mathématiques -3 probabilités, Belin, 1984 HARTHONG J., Probabilités et Statistiques. De l’intuition aux applications, Diderot multimédia, 1996. JACQUARD A., Les probabilités, QSJ 1571, PUF, 1992. LABROUSSE C., Statistique. Exercices corrigés t2 t3, Dunod, 1991. LAPRESTE J.T., Probabilités 92 exercices corrigés, Dunod. LEBOEUF C. ROQUE JL. GUEGAND J., Cours de probabilités et de statistiques, Marketing, 1983 LECOUTRE JP. LEGAIT S. TASSI P., Statistiques exercices corrigés avec rappel de cours, Masson, 1987 LIPSCHUTZ S., Probabilités. Cours et problèmes, Série SCHAUM, McGraw-Hill, 1990. MARCEIL Aide mémoire de probabilités et statistiques, Ellipses. MASIERI W., Statistique et calcul des probabilités, Sirey MASIERI W., Statistique et calcul des probabilités, travaux pratiques : énoncés et solutions,

Page 67: Curso Magistral Mate Estadistica

67

Sirey MONFORT A., Cours de probabilités, Economica, 1980 MONFORT A., Cours de statistique mathématique, Economica, 1982 MONINO J.-L. SOL J.-L., Statistique et probabilités, Dunod, 1994. MORONEY "Comprendre les statistiques" PELLAUMAIL J., Probabilités, Statistiques, Files d'attente. Cours et exercices résolus, Dunod, 1989. PUPION G., Statistiques descriptives et décisionnelles appliquées à l'économie et à la gestion, P.U.F., 1988. RAFFIN C., Statistiques et probabilités, Armand Colin, 1987 REAU J.P. CHAUVAT G., Probabilités et Statistiques, Flash U, Armand Colin, 1988. RENAULT J., Formulaire de probabilités et de statistiques, Dunod, 1992. Revue de statistique appliquée "Aide mémoire pratique des techniques statistiques", CERESTA, 1986 ROBERT C., L'analyse statistique bayésienne, Economica, 1992. SANDERS H.D. MURPH A.F. ENG R.J., Les statistiques une approche nouvelle, Mac Graw Hill, 1984 SANDRETTO R., Probabilités. Exercices corrigés et rappels de cours, Dunod, 1992. SAPORTA G., Probabilités, analyse des données et statistique, Technip, 1990. SPIEGEL MURRAY R., Théorie et applications de la statistique, Série SCHAUM, McGraw-Hill, 1972. TAGUSHI TASSI P., Méthodes statistiques, Economica, 1985. TRIGNAN J., Probabilités statistiques et leurs applications. cours et exercices résolus, Bréal, 1991. VERLANT BIGOT, Statistiques et probabilités, Foucher. VESSEREAU A., La statistique, QSJ 281, PUF 1992. VO KHAC, Estimation et tests paramétriques et non paramétriques, Ellipses. WONNACOTT T.H. WONNACOTT R.J., Statistique, Economica, 1984