une introduction au monde du bootstrap · 2018-07-14 · introduction la statistique pré-requis...

61
Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique Forces et faiblesses Le bootstrap en action Exemple 1 Exemple 2 Conclusion Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 1 / 32 Bruffaerts Christopher Une introduction au monde du Bootstrap Bruffaerts Christopher European Center for Advanced Research in Economics and Statistics (ECARES) Août 5, 2013

Upload: others

Post on 03-Aug-2020

3 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 1 / 32

Bruffaerts Christopher

Une introduction au monde du Bootstrap

Bruffaerts Christopher

European Center for Advanced Research in Economics and Statistics (ECARES)

Août 5, 2013

Page 2: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Quand on google le mot “Bootstrap”...

Page 3: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Quand on google le mot “Bootstrap”...

Page 4: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 2 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 5: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 3 / 32

Bruffaerts Christopher

Population VS échantillon

Inférence statistique

Domaines d’application de la statistique: Sondages, plansd’expérience, modèles de survie, GLM, contrôle de qualité, statistiquespatiale, séries temporelles, . . .

Page 6: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 3 / 32

Bruffaerts Christopher

Population VS échantillon

Inférence statistique

Domaines d’application de la statistique: Sondages, plansd’expérience, modèles de survie, GLM, contrôle de qualité, statistiquespatiale, séries temporelles, . . .

Page 7: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 4 / 32

Bruffaerts Christopher

Paramétrique VS non Paramétrique

Soit un échantillon i.i.d. X = (X1,X2, . . . ,Xn) issu d’une populationdont la fonction de répartition est F(x) = P[X ≤ x].

F(.) = Fθ(.) où θ ∈ Rk ⇒ paramétrique.

La teneur en sucre de bonbons: X ∼ N (µ, σ2) avecθ = (µ, σ2)′.

Nombre d’accidents sur un laps de temps: X ∼ P(λ) avecθ = λ > 0.

La durée de vie d’ampoules: X ∼ Exp(λ) avec θ = λ > 0.

F(.) inconnue ⇒ non-paramétrique.Tests de signesTests de rangs

Page 8: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 4 / 32

Bruffaerts Christopher

Paramétrique VS non Paramétrique

Soit un échantillon i.i.d. X = (X1,X2, . . . ,Xn) issu d’une populationdont la fonction de répartition est F(x) = P[X ≤ x].

F(.) = Fθ(.) où θ ∈ Rk ⇒ paramétrique.

La teneur en sucre de bonbons: X ∼ N (µ, σ2) avecθ = (µ, σ2)′.

Nombre d’accidents sur un laps de temps: X ∼ P(λ) avecθ = λ > 0.

La durée de vie d’ampoules: X ∼ Exp(λ) avec θ = λ > 0.

F(.) inconnue ⇒ non-paramétrique.Tests de signesTests de rangs

Page 9: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 10: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 11: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 5 / 32

Bruffaerts Christopher

Paramètres d’intérêt

Fonctionnelle statistique: fonction à valeur réelle dont l’argument estune fonction de répartition.

Exemples:Moyenne: θ = T (F) =

∫xdF(x).

ex.: Age moyen des étudiants de l’ULB.

Variance: θ = T (F) =∫

x2dF(x)−( ∫

xdF(x))2

.

ex.: Pourcentage de viande de cheval dans les boulettes IKEA.Quantile: θ = T (F) = F−1(α), α ∈ [0, 1].

ex.: Revenu médian de la population belge.

Question: Comment estimer ces paramètres à partir de l’échantillon?

F inconnue mais Fn est connue !

Page 12: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

Page 13: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=10

Page 14: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=100

Page 15: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 6 / 32

Bruffaerts Christopher

Fonction de répartition empirique

Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Par le théorème de Glivenko-Cantelli, Fn(x) P−→ F(x)

Figure: Fonction de répartition de N (0, 1) et sa version empirique.

-3 -2 -1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

ecdf(zgen)

x

Fn(x)

n=1000

Page 16: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 7 / 32

Bruffaerts Christopher

Estimation: Principe du plug-in

Soit l’échantillon i.i.d. X = (X1, . . . ,Xn).

Exemples:Moyenne: θ = T (Fn) =

∫xdFn(x) = 1

n∑n

i=1 Xi .

Variance:θ =

∫x2dFn(x)−

( ∫xdFn(x)

)2= 1

n∑n

i=1 X2i −(

1n∑n

i=1 Xi

)2.

Médiane: θ = T (Fn) = F−1n (1/2).

Question: Quelle est la distribution échantillonnée de l’estimateur?

Biais(θ) = EF [θ]− θ

Var(θ) = EF

[(θ − EF [θ]

)2]EQM (θ) = EF [(θ − θ)2]

Page 17: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 7 / 32

Bruffaerts Christopher

Estimation: Principe du plug-in

Soit l’échantillon i.i.d. X = (X1, . . . ,Xn).

Exemples:Moyenne: θ = T (Fn) =

∫xdFn(x) = 1

n∑n

i=1 Xi .

Variance:θ =

∫x2dFn(x)−

( ∫xdFn(x)

)2= 1

n∑n

i=1 X2i −(

1n∑n

i=1 Xi

)2.

Médiane: θ = T (Fn) = F−1n (1/2).

Question: Quelle est la distribution échantillonnée de l’estimateur?

Biais(θ) = EF [θ]− θ

Var(θ) = EF

[(θ − EF [θ]

)2]EQM (θ) = EF [(θ − θ)2]

Page 18: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 8 / 32

Bruffaerts Christopher

Méthodes de Monte-Carlo

Supposons que F soit connue. Soit S(X ) une statistique.Comment obtenir la distribution échantillonnée de S?

=⇒ Monte-Carlo: Générer B (grand!) échantillons à partir de F !

Population Ech. 1

Ech. 2

Ech. 3

Ech. 4

Ech. B

Page 19: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 8 / 32

Bruffaerts Christopher

Méthodes de Monte-Carlo

Supposons que F soit connue. Soit S(X ) une statistique.Comment obtenir la distribution échantillonnée de S?

=⇒ Monte-Carlo: Générer B (grand!) échantillons à partir de F !

Population Ech. 1

Ech. 2

Ech. 3

Ech. 4

Ech. B

Page 20: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 9 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Soit X ∼ Exp(µ) et θ = µ = E [X ], θ = S(X ) = X .1 X ∼ Γ(n, µn )

Hn(x) = P[X ≤ x] =∫ x

0

un−1e−nu/µ

(µ/n)nΓ(n) du

2 Pour n grand, X ≈ N (µ, µ2/n)

Hn(x) = P[X ≤ x] ≈ Φ( x − µµ/√

n

)

3 Simulations de Monte-CarloTirer B échantillons de F (de taille n): {X (b), b = 1, . . . ,B}.Calculer la statistique de test S pour chacun de ces échantillons.Approximation numérique de Hn(x):

Hn(x) = P[X ≤ x] ≈ 1B

B∑b=1

1(S(X (b)) ≤ x)

Page 21: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 9 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Soit X ∼ Exp(µ) et θ = µ = E [X ], θ = S(X ) = X .1 X ∼ Γ(n, µn )

Hn(x) = P[X ≤ x] =∫ x

0

un−1e−nu/µ

(µ/n)nΓ(n) du

2 Pour n grand, X ≈ N (µ, µ2/n)

Hn(x) = P[X ≤ x] ≈ Φ( x − µµ/√

n

)3 Simulations de Monte-Carlo

Tirer B échantillons de F (de taille n): {X (b), b = 1, . . . ,B}.Calculer la statistique de test S pour chacun de ces échantillons.Approximation numérique de Hn(x):

Hn(x) = P[X ≤ x] ≈ 1B

B∑b=1

1(S(X (b)) ≤ x)

Page 22: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 10 / 32

Bruffaerts Christopher

Illustration du Monte-Carlo

Distribution échantillonnée de X pour X ∼ Exp(3) avec n = 10.

-4 -2 0 2 4 6 8 10

0.0

0.1

0.2

0.3

0.4

x

gGammaNormalMonte-Carlo

Page 23: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 10 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 24: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 25: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 26: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 11 / 32

Bruffaerts Christopher

Deux mondes parallèles

Monde réel

F Fn

θ θn

T T

X = (X1,X2, . . . ,Xn) issu d’unepopulation dont F est inconnue.

T(Fn) est un estimateur de θ.Distribution de T(Fn) (ouS(X )) autour de θ inconnue.

Monde du bootstrap

Fn FRn

θn θ∗Rn

T T

X ∗ = (X∗1 ,X∗2 , . . . ,X∗n ) issu de lapopulation X dont Fn est connue.

T(FRn ) (ou S(X ∗)) est un

estimateur de θ.Conditionnellement à X , ladistribution de S(X ∗) estconnue!

Principe: Distribution de S(X ) ≈ Distribution de S(X ∗)

Page 27: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 12 / 32

Bruffaerts Christopher

Le principe du Bootstrap

L’échantillon bootstrap est à l’échantillon ce que l’échantillon est à lapopulation!

Dans le monde du bootstrap:

Distribution: Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Paramètre d’intérêt: θ = S(X ).

Echantillon bootstrap X ∗ issu de Fn.

Estimateur échantillon bootstrap : θ∗n = S(X ∗).

Principe:Distribution échantillonnée de θn autour de θ ≈ Distributionéchantillonnée de θ∗n autour de θ.

Page 28: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 12 / 32

Bruffaerts Christopher

Le principe du Bootstrap

L’échantillon bootstrap est à l’échantillon ce que l’échantillon est à lapopulation!

Dans le monde du bootstrap:

Distribution: Fn(x) = 1n∑n

i=1 1(Xi ≤ x)

Paramètre d’intérêt: θ = S(X ).

Echantillon bootstrap X ∗ issu de Fn.

Estimateur échantillon bootstrap : θ∗n = S(X ∗).

Principe:Distribution échantillonnée de θn autour de θ ≈ Distributionéchantillonnée de θ∗n autour de θ.

Page 29: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 13 / 32

Bruffaerts Christopher

Le monde du Bootstrap

Question: Comment construire la distribution échantillonnée de θ∗n?

=⇒ via Monte-Carlo (rééchantillonnage):1 Bootstrap non-paramétrique2 Bootstrap paramétrique

Echantillon Ech.* 1

Ech.* 2

Ech.* 3

Ech.* 4

Ech.* B

Page 30: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 13 / 32

Bruffaerts Christopher

Le monde du Bootstrap

Question: Comment construire la distribution échantillonnée de θ∗n?=⇒ via Monte-Carlo (rééchantillonnage):

1 Bootstrap non-paramétrique2 Bootstrap paramétrique

Echantillon Ech.* 1

Ech.* 2

Ech.* 3

Ech.* 4

Ech.* B

Page 31: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 14 / 32

Bruffaerts Christopher

L’idée du rééchantillonnage (Efron, 1979)

L’idée se base sur la technique de rééchantillonnage avecremplacement.

Qu’est ce qu’un rééchantillonnage?

Soit l’échantillon X = (2, 12, 20, 26, 78) de taille n = 5.X ∗(1) = (12, 20, 78, 26, 2)X ∗(2) = (26, 78, 12, 12, 2)X ∗(3) = (20, 20, 20, 20, 20). . .X ∗(B) = (26, 2, 2, 78, 20)

Page 32: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 14 / 32

Bruffaerts Christopher

L’idée du rééchantillonnage (Efron, 1979)

L’idée se base sur la technique de rééchantillonnage avecremplacement.

Qu’est ce qu’un rééchantillonnage?

Soit l’échantillon X = (2, 12, 20, 26, 78) de taille n = 5.X ∗(1) = (12, 20, 78, 26, 2)X ∗(2) = (26, 78, 12, 12, 2)X ∗(3) = (20, 20, 20, 20, 20). . .X ∗(B) = (26, 2, 2, 78, 20)

Page 33: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 15 / 32

Bruffaerts Christopher

Principe du bootstrap: exemple

Soit l’échantillon X = (2, 12, 20, 26, 78) et S(X ) = X .

X ∗(1) = (12, 20, 78, 26, 2) −→ S(X ∗) = 27.6X ∗(2) = (26, 78, 12, 12, 2) −→ S(X ∗) = 26X ∗(3) = (20, 20, 20, 20, 20) −→ S(X ∗) = 20...

......

......

......

X ∗(B) = (26, 20, 12, 2, 26) −→ S(X ∗) = 17.2

Frequency

20 40 60 80

050

100

150

200

250

Page 34: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 16 / 32

Bruffaerts Christopher

Inférence sur le paramètre d’intérêt

Supposons Rn =√

n(θ − θ) et sa distribution Hn(x) = P(Rn ≤ x).Si Hn est connue,

IC (1− α) =[θ −

q1−α/2√n

, θ −qα/2√

n

]où qα/2 = H−1

n (α/2) et q1−α/2 = H−1n (1− α/2).

Exemple: Si X ∼ N (µ, σ2); Rn =√

n(X − µ) ∼ N (0, σ2)

IC (1− α) =[X − z1−α/2

σ√n, X − zα/2

σ√n

]

Si Hn est inconnue, le bootstrap approxime Hn!Quantiles q∗α/2 = H−1

n (α/2) et q∗1−α/2 = H−1n (1− α/2) où:

Hn(x) ≈ 1B

B∑b=1

1

(√n(θ∗(b) − θ) ≤ x

)

Page 35: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 16 / 32

Bruffaerts Christopher

Inférence sur le paramètre d’intérêt

Supposons Rn =√

n(θ − θ) et sa distribution Hn(x) = P(Rn ≤ x).Si Hn est connue,

IC (1− α) =[θ −

q1−α/2√n

, θ −qα/2√

n

]où qα/2 = H−1

n (α/2) et q1−α/2 = H−1n (1− α/2).

Exemple: Si X ∼ N (µ, σ2); Rn =√

n(X − µ) ∼ N (0, σ2)

IC (1− α) =[X − z1−α/2

σ√n, X − zα/2

σ√n

]Si Hn est inconnue, le bootstrap approxime Hn!Quantiles q∗α/2 = H−1

n (α/2) et q∗1−α/2 = H−1n (1− α/2) où:

Hn(x) ≈ 1B

B∑b=1

1

(√n(θ∗(b) − θ) ≤ x

)

Page 36: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 17 / 32

Bruffaerts Christopher

Un peu d’histoire...

Baron Münchausen: militaire allemand (1720-1797).

Origine: Provient des histoires à dormir debout du BaronMünchausen. Il prétend que son cheval et lui se soient sortis d’unmarécage simplement en tirant sur:

1 ses cheveux2 les lanières de ses bottes (bootstrap)

“to pull oneself up by one’s own bootstraps”

⇒ Analogie avec le problème statistique:

on se débrouille uniquement avec l’échantillon!

Page 37: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 17 / 32

Bruffaerts Christopher

Un peu d’histoire...

Baron Münchausen: militaire allemand (1720-1797).

Origine: Provient des histoires à dormir debout du BaronMünchausen. Il prétend que son cheval et lui se soient sortis d’unmarécage simplement en tirant sur:

1 ses cheveux2 les lanières de ses bottes (bootstrap)

“to pull oneself up by one’s own bootstraps”

⇒ Analogie avec le problème statistique:

on se débrouille uniquement avec l’échantillon!

Page 38: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 18 / 32

Bruffaerts Christopher

Un peu d’histoire...

Figure: Baron Münchausen (1720-1797)

Page 39: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 18 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 40: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 19 / 32

Bruffaerts Christopher

De quoi a-t-on besoin pour “bootstrapper”?

“Dans le bootstrap, on a besoin de rien...”

...sauf peut-être...

Sources de variations dans le bootstrap:1 échantillon original aléatoire⇒ Approximation de Hn(x) par Hn(x).

2 tirage aléatoire des échantillons bootstrap⇒ Approximation de Hn(x) via Monte-Carlo (contrôle sur B!)

Page 41: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 19 / 32

Bruffaerts Christopher

De quoi a-t-on besoin pour “bootstrapper”?

“Dans le bootstrap, on a besoin de rien...”

...sauf peut-être...

Sources de variations dans le bootstrap:1 échantillon original aléatoire⇒ Approximation de Hn(x) par Hn(x).

2 tirage aléatoire des échantillons bootstrap⇒ Approximation de Hn(x) via Monte-Carlo (contrôle sur B!)

Page 42: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 20 / 32

Bruffaerts Christopher

Bootstrap non paramétrique

Echantillon dedépart X =(X1, . . . ,Xn)

Distributionempirique Fn(.)

EchantillonBootstrap

X ∗ = (X∗1 , . . . ,X∗n)

DistributionP[X∗

i ≤ x | X ] = Fn(x)

θ = S(X ) θ∗ = S(X ∗)

Rééchantillonnage

S S

Page 43: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 21 / 32

Bruffaerts Christopher

Bootstrap non paramétrique: exemple

Soit l’échantillon (1.7, 2, 2.4, 3.9, 4.3, 4.5, 5.2, 5.8, 6.2, 7.4); n = 10.Soit S(X ) = X = 1

n∑n

i=1 Xi .

Bootstrap nonparamétrique

boot.sampling.dist.NP

Density

2 4 6 8 10

0.00.1

0.20.3

0.40.5

Distribution exacte: X ∼ Γ(n, µn ); (X ∼ Exp(µ)).

Page 44: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 22 / 32

Bruffaerts Christopher

Bootstrap paramétrique

Echantillon dedépart X =(X1, . . . ,Xn)

Distribution ajustéeFn(.) = F

θ(.)

EchantillonBootstrap

X ∗ = (X∗1 , . . . ,X∗n)

DistributionP[X∗

i ≤ x | X ] = Fn(x)

θ = S(X ) θ∗ = S(X ∗)

Simulatio

ns

S S

Page 45: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 23 / 32

Bruffaerts Christopher

Bootstrap paramétrique: exemple

Soit l’échantillon (1.2, 1.7, 1.8, 2, 2.3, 2.6, 3.9, 4.3, 4.5, 5.8); n = 10.Simuler B = 5000 échantillons de la distribution Exp(x).

Bootstrap paramétrique

boot.sampling.dist

Density

2 4 6 8 10

0.00.1

0.20.3

0.40.5

Distribution exacte: X ∼ Γ(n, µn ) ; (X ∼ Exp(µ)).

Page 46: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 24 / 32

Bruffaerts Christopher

Algorithme du bootstrap

Soit l’échantillon X = (X1, . . . ,Xn).1 Générer un échantillon bootstrap X ∗ = (X∗1 , . . . ,X∗n):

ParamétriqueNon-paramétrique

2 Calculer S∗ = S(X∗1 , . . . ,X∗n) = θ∗.3 Répéter les étapes 1 et 2 un certain nombre de fois B.4 Approximer Hn(x) par

Hn(x) = 1B

B∑j=1

1

(√n(θ∗j − θ) ≤ x

).

5 Trouver les quantiles qα/2 et q1−α/2 de Hn(x) et construire l’IC.

Page 47: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 24 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 48: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 25 / 32

Bruffaerts Christopher

Le bootstrap: une panacée pour l’inférence?

Forces:Permet de calculer des intervalles de confiance, de corriger pourle biais et d’estimer la variabilité liée à l’estimation.Peut être une solution pour des problèmes compliqués.Même si les résultats asymptotiques sont disponibles, lebootstrap offre souvent de meilleures approximations.Facile à implémenter.Flexible.

Faiblesses:Ne marche pas toujours!Peut être lourd computationnellement.Dépend de la représentativité de l’échantillon de départ.

Page 49: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 25 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 50: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).

Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

Page 51: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

0 10 20 30 40 50

100000

150000

200000

Années d'expérience

Salaire

Page 52: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 26 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (1)

Modèle: yi = β0 + β1xi + εi , i = 1, . . . ,n; εi ∼ N (0, σ2).Données: Salaires de 397 professeurs dans un “American College”(2008-2009).

0 10 20 30 40 50

100000

150000

200000

Années d'expérience

Salaire

Page 53: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 27 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (2)

Inférence: β0 − β0

SE(β0)∼ tn−1 et β1 − β1

SE(β1)∼ tn−1.

Possibilités de rééchantillonnage:1 couples {(xi , yi), i = 1, . . . ,n}2 résidus {ri = yi − yi , i = 1, . . . ,n}

β0 β1Est. SE Est. SE

Théorie 91718.7 2765.8 985.3 107.4Bootstrap 91718.6 2454.1 985.3 126

β0 β1IC (95%) IC (95%)

Théorie [86281, 97156] [774, 1196]Bootstrap [87315, 97726] [702, 1225]

Page 54: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 27 / 32

Bruffaerts Christopher

Exemple 1: Régression linéaire (2)

Inférence: β0 − β0

SE(β0)∼ tn−1 et β1 − β1

SE(β1)∼ tn−1.

Possibilités de rééchantillonnage:1 couples {(xi , yi), i = 1, . . . ,n}2 résidus {ri = yi − yi , i = 1, . . . ,n}

β0 β1Est. SE Est. SE

Théorie 91718.7 2765.8 985.3 107.4Bootstrap 91718.6 2454.1 985.3 126

β0 β1IC (95%) IC (95%)

Théorie [86281, 97156] [774, 1196]Bootstrap [87315, 97726] [702, 1225]

Page 55: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 28 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (1)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

θMV = max(X1,X2, . . . ,Xn)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)n −→ 1− e−1 pour n →∞.

Problème: le maximum est tiré trop souvent dans le monde dubootstrap.

Page 56: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 28 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (1)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

θMV = max(X1,X2, . . . ,Xn)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)n −→ 1− e−1 pour n →∞.

Problème: le maximum est tiré trop souvent dans le monde dubootstrap.

Page 57: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 29 / 32

Bruffaerts Christopher

Exemple 2: estimation d’une frontière (2)

Contexte: X ∼ U [0, θ] et X = (X1,X2, . . . ,Xn).

Solution: sous-échantillonnage (“subsampling”)

Monde réel:

Rn(θ) = n(θ − θ)θ

∼ Exp(.)

Monde du bootstrap:

R∗n(θ) = n(θ − θ∗)θ

P[R∗n(θ) = 0 | X ] = 1−(1− 1

n)m −→ 0 pour n →∞, et m

n → 0,et où m est la taille du sous-échantillon.

Page 58: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 29 / 32

Bruffaerts Christopher

Agenda

1 Introduction

2 Le bootstrap

3 Algorithme

4 Forces et faiblesses

5 Le bootstrap en action

6 Conclusion

Page 59: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 30 / 32

Bruffaerts Christopher

Conclusion

Le bootstrap est une technique prometteuse fortement utilisée(l’usage computationel s’améliore).

Bà ne pas banaliser l’usage du bootstrap.

Le bootstrap en pratique:1 R cran: package boot et bootstrap2 Matlab: bootstrap toolbox

Extensions possibles:SubsamplingSmooth bootstrapBlock bootstrap (séries temporelles)JackknifeIterated bootstrap. . .

Page 60: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 31 / 32

Bruffaerts Christopher

La conclusion de John Tukey

“The bootstrap is like a shotgun because you can blow the head offany statistical problem...”

Page 61: Une introduction au monde du Bootstrap · 2018-07-14 · Introduction La statistique Pré-requis Monte-Carlo Le bootstrap Principe Historique Algorithme Non Paramétrique Paramétrique

IntroductionLa statistique

Pré-requis

Monte-Carlo

Le bootstrapPrincipe

Historique

AlgorithmeNon Paramétrique

Paramétrique

Forces etfaiblesses

Le bootstrap enactionExemple 1

Exemple 2

Conclusion

Brussels Summer School of Mathematics (BSSM), Août 2013, ULB 32 / 32

Bruffaerts Christopher

Quelques références

P. Bickel and D. Freeman (1981) Some asymptotic theory for thebootstrap, Annals of Statistics, 9:1196-1217.

A.C. Davison and D.V. Hinkley (1997) Bootstrap methods and theirApplication, Cambridge University Press.

B. Efron (1979) Bootstrap methods: Another look at the jackknife,Annals of Statistics, 7:1-26.

B. Efron and R.J. Tibshirani (1993) An introduction to the bootstrap,Chapman and Hall, New York.

P. Hall (1992) The bootstrap and Edgeworth Expansion,Springer-Verlag, New York.

J.L. Horowitz (2000) The bootstrap.

L. Simar (2008) An invitation to the bootstrap: Panacea forStatistical Inference?