cours oroc–sc–fp (3/5) filtrage bay´esien et … · 2017-10-17 · introduction distributions...

67
Introduction Distributions de Gibbs–Boltzmann elanges finis Distributions ` a support fini Approximation particulaire cours OROC–SC–FP (3/5) Filtrage Bay´ esien et Approximation Particulaire Fran¸ cois Le Gland INRIA Rennes et IRMAR http://www.irisa.fr/aspi/legland/ensta/ 6 octobre 2017 1 / 74

Upload: phamtuong

Post on 12-Sep-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

cours OROC–SC–FP (3/5)

Filtrage Bayesienet Approximation Particulaire

Francois Le GlandINRIA Rennes et IRMAR

http://www.irisa.fr/aspi/legland/ensta/

6 octobre 2017

1 / 74

Page 2: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Introductionmotivationmethodes de Monte Carlo (rappel)

Distributions de Gibbs–Boltzmann

Melanges finis

Distributions a support fini

Approximation particulaire

2 / 74

Page 3: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Motivationpour approximer le filtre bayesien

µn(dx) = P[Xn ∈ dx | Y0:n]

on utilise ici la relation de recurrence preuve a la seance precedente

µk−1 −−−−−−−−−→ ηk = µk−1 Qk −−−−−−−−−→ µk = gk · ηkavec la condition initiale µ0 = g0 · η0ici, la notation

µk−1 Qk(dx′) =

E

µk−1(dx)Qk(x , dx′)

designe l’action du noyau markovien Qk(x , dx′) sur la distribution de

probabilite µk−1(dx), et la notation

gk · ηk =gk ηk〈ηk , gk〉

designe le produit projectif de la distribution de probabilite a prioriηk(dx

′) et de la fonction de vraisemblance gk(x′)

3 / 74

Page 4: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

idee : rechercher une approximation sous la forme de distributions deprobabilite empiriques (eventuellement ponderees)

ηk ≈ ηNk =1

N

N∑

i=1

δξik

et µk ≈ µNk =

N∑

i=1

w ik δ

ξikavec

N∑

i=1

w ik = 1

associees a une population de N particules caracterisee par

◮ les positions (ξ1k , · · · , ξNk ) dans E◮ et les poids positifs (w1

k , · · · ,wNk )

4 / 74

Page 5: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

approximation initiale : par echantillonnage pondere

µ0 = g0 · η0 ≈ g0 · SN(η0) =

N∑

i=1

g0(ξi0) δξi0

N∑

j=1

g0(ξj0)

=

N∑

i=1

w i0 δξi0

ou les variables aleatoires (ξ10 , · · · , ξN0 ) sont i.i.d. de distributioncommune η0

etape de correction : clairement, a partir de la definition

µNk = gk · ηNk =

N∑

i=1

gk(ξik) δξik

N∑

j=1

gk(ξjk)

=N∑

i=1

w ik δ

ξik

est automatiquement de la forme recherchee

5 / 74

Page 6: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

etape de prediction : a partir de la definition

〈µNk−1 Qk , φ〉 =

µNk−1(dx)

Qk(x , dx′)φ(x ′)

=N∑

i=1

w ik−1

Qk(ξik−1, dx

′)φ(x ′)

=

[N∑

i=1

w ik−1 Qk(ξ

ik−1, dx

′) ]φ(x ′)

pour toute fonction φ, de sorte que

µNk−1 Qk(dx

′) =

N∑

i=1

w ik−1 m

ik(dx

′)

s’exprime comme un melange fini, avec

mik(dx

′) = Qk(ξik−1, dx

′) pour tout i = 1 · · ·Nqu’il s’agit d’approximer / echantillonner, selon une methode appropriee

6 / 74

Page 7: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

question : comment approcher

◮ une distribution de Gibbs–Boltzmann de la forme

µ = g · η =g η

〈η, g〉 telle que 〈µ, φ〉 = 〈η, g φ〉〈η, g〉

◮ ou un melange fini de la forme

η =

M∑

i=1

wi mi tel que 〈η, φ〉 =M∑

i=1

wi 〈mi , φ〉

a l’aide d’un echantillon ?

7 / 74

Page 8: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Methodes de Monte Carlo (rappel)s’il est difficile de calculer une integrale (ou une esperance)

〈µ, φ〉 =∫

E

φ(x)µ(dx) = E[φ(X )] avec X ∼ µ(dx)

mais qu’il est facile de simuler une v.a. selon la distribution µ, alors onpeut former la distribution empirique

SN(µ) =1

N

N∑

i=1

δξi

ou (ξ1, · · · , ξN) est un N–echantillon distribue selon µ, d’oul’approximation sans biais

〈µ, φ〉 ≈ 〈SN(µ), φ〉 = 1

N

N∑

i=1

φ(ξi )

8 / 74

Page 9: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

expression comme somme de variables aleatoires i.i.d. centrees

〈SN(µ)− µ, φ〉 = 1

N

N∑

i=1

(φ(ξi )− 〈µ, φ〉)

d’ou l’expression de la variance (non–asymptotique)

E| 〈SN(µ)− µ, φ〉 |2 = 1

Nvar(φ, µ)

facile, compte tenu de l’identite

1

N2

N∑

i,j=1

E[ (φ(ξi )−〈µ, φ〉) (φ(ξj)−〈µ, φ〉) ] = 1

N2

N∑

i=1

E|φ(ξi )− 〈µ, φ〉 |2︸ ︷︷ ︸

var(φ, µ)

plus generalement (inegalites de Marcinkiewicz–Zygmund) : pour p ≥ 2

{E| 〈SN(µ)− µ, φ〉 |p }1/p ≤ cp√N

〈µ, |φ− 〈µ, φ〉|p〉1/p

9 / 74

Page 10: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

theoremes limites (pour une grande taille d’echantillon N)

loi (forte) des grands nombres

〈SN(µ), φ〉 −→ 〈µ, φ〉

en probabilite (presque surement) quand N ↑ ∞, a vitesse 1/√N

theoreme central limite

√N 〈SN(µ)− µ, φ〉 = 1√

N

N∑

i=1

(φ(ξi )− 〈µ, φ〉) =⇒ N (0, var(φ, µ))

en distribution quand N ↑ ∞

10 / 74

Page 11: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Introduction

Distributions de Gibbs–Boltzmanndistributions de Gibbs–Boltzmannechantillonnage pondereestimations et theoremes limites

Melanges finis

Distributions a support fini

Approximation particulaire

11 / 74

Page 12: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Distributions de Gibbs–Boltzmanncas particulier important : distribution de Gibbs–Boltzmann

µ = g · η =g η

〈η, g〉 c–a–d 〈µ, φ〉 = 〈η, g φ〉〈η, g〉 (⋆)

avec (decomposition non unique)

◮ une distribution de probabilite η

◮ une fonction positive g

on introduit aussi la mesure positive (non–normalisee) definie par

〈γ, φ〉 = 〈η, g φ〉 = E[g(Ξ)φ(Ξ)] d’ou 〈µ, φ〉 = 〈η, g φ〉〈η, g〉 =

〈γ, φ〉〈γ, 1〉

ou la v.a. Ξ a pour loi ηmotivation : formule de Bayes

”loi a posteriori” ∝ ”fonction de vraisemblance” × ”loi a priori”

12 / 74

Page 13: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

s’il est difficile de simuler une v.a. selon µ, mais qu’il est facile de

◮ simuler une v.a. selon η

◮ evaluer pour tout x , la fonction positive g(x)

alors il est possible de

◮ generer exactement une v.a. de loi µ = g · η [acceptation / rejet]

◮ approcher µ par une distribution empirique ponderee associee a unechantillon de loi η [echantillonnage pondere]

meme si la constante de normalisation 〈η, g〉 est inconnue

13 / 74

Page 14: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Echantillonnage pondere

idee : approximer numerateur et denominateur dans (⋆) a l’aide d’ununique echantillon distribue selon η : on introduit les approximationssuivantes

〈γ, φ〉 = 〈η, g φ〉 ≈ 〈SN(η), g φ〉 = 1

N

N∑

i=1

g(ξi )φ(ξi )

d’ou

〈µ, φ〉 = 〈g · η, φ〉 ≈ 〈g · SN(η), φ〉 =

N∑

i=1

g(ξi )φ(ξi )

N∑

i=1

g(ξi )

pour toute fonction φ, ou les variables aleatoires (ξ1, · · · , ξN) sont i.i.d.de distribution de probabilite commune η

14 / 74

Page 15: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

ceci definit implicitement les approximations Monte Carlo ponderees

γ ≈ γN = g SN(η) =1

N

N∑

i=1

g(ξi ) δξi

et

µ ≈ µN = g · SN(η) =

N∑

i=1

g(ξi ) δξi

N∑

j=1

g(ξj)

=

N∑

i=1

w i δξi

ou les poids (w1, · · · ,wN) sont definis pour tout i = 1 · · ·N par

w i =g(ξi )

N∑

j=1

g(ξj)

parfois note w i ∝ g(ξi )

a une constante multiplicative pres

15 / 74

Page 16: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4prior distribution (sample view)

prior

Figure : Densite a priori et echantillon

16 / 74

Page 17: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4prior distribution (histogram view)

prior

Figure : Densite a priori et histogramme associe a l’echantillon

17 / 74

Page 18: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4

prior distribution, likelihood functionand posterior distribution (weighted sample view)

priorlikelihoodposterior

Figure : Densite a priori, fonction de vraisemblance, densite a posteriori etechantillon pondere

18 / 74

Page 19: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4

prior distribution, likelihood functionand posterior distribution (histogram view)

priorlikelihoodposterior

Figure : Densite a priori, fonction de vraisemblance, densite a posteriori ethistogramme associe a l’echantillon pondere

19 / 74

Page 20: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4

prior distribution, likelihood functionand posterior distribution (weighted sample view)

priorlikelihoodposterior

Figure : Densite a priori, fonction de vraisemblance, densite a posteriori etechantillon pondere (exemple d’incoherence)

20 / 74

Page 21: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

−5 −4 −3 −2 −1 0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

1.2

1.4

prior distribution, likelihood functionand posterior distribution (histogram view)

priorlikelihoodposterior

Figure : Densite a priori, fonction de vraisemblance, densite a posteriori ethistogramme associe a l’echantillon pondere (exemple d’incoherence)

21 / 74

Page 22: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

solution : changement de distribution de probabilitesoit ν une distribution de probabilite dominant η, c’est–a–dire que siν(A) = 0 alors necessairement η(A) = 0

〈η, g φ〉 = 〈ν, dηdν

g φ〉 et en particulier 〈η, g〉 = 〈ν, dηdν

g〉

de sorte que

〈µ, φ〉 = 〈η, g φ〉〈η, g〉 =

〈ν, dηdν

g φ〉

〈ν, dηdν

g〉=

〈ν, h φ〉〈ν, h〉 avec h =

dνg

d’ou l’expression alternative en terme de distribution de Gibbs–Boltzmann

µ = h · ν =h ν

〈ν, h〉

et il s’agit de proposer une paire (ν, h) presentant une incoherencemoindre que celle de la paire (η, g)

22 / 74

Page 23: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Estimations et theoremes limitesla v.a. 〈γN , φ〉 est un estimateur non–biaise de 〈γ, φ〉Theoreme

E| 〈γN − γ, φ〉〈γ, 1〉 |2 = 1

N

var(g φ, η)

〈η, g〉2et pour tout p ≥ 2

{E| 〈γN − γ, φ〉〈γ, 1〉 |p }1/p ≤ cp√

N(〈η, |g φ− 〈η, g φ〉|p〉

〈η, g〉p )1/p

Preuve il suffit de remarquer que

γ = g η et γN = g SN(η)

de sorte que〈γN − γ, φ〉 = 〈SN(η)− η, g φ〉

et d’appliquer le resultat du cas general �

23 / 74

Page 24: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

en revanche, comme rapport de deux estimateurs non–biaises, la v.a.〈µN , φ〉 est un estimateur biaise de 〈µ, φ〉Theoreme

E[ 〈µN , φ〉 ] = 〈µ, φ〉+ O(1/N)

{E| 〈µN − µ, φ〉 |2 }1/2 = 1√N

(〈η, g2 |φ− 〈µ, φ〉|2〉

〈η, g〉2 )1/2 + O(1/N)

et pour tout p ≥ 2

{E| 〈µN − µ, φ〉 |p }1/p = O(1/√N)

Preuve on pose

T 0N = 〈γN − γ, φ− 〈µ, φ〉〉 = 〈γN , φ〉 − 〈µ, φ〉 〈γN , 1〉

compte tenu que〈γ, φ〉 − 〈µ, φ〉 〈γ, 1〉 = 0

24 / 74

Page 25: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

on pose aussiD = 〈γ, 1〉 et DN = 〈γN , 1〉

on en deduit que la difference ∆N = 〈µN − µ, φ〉 verifie

∆N =〈γN , φ〉〈γN , 1〉 − 〈µ, φ〉 = 〈γN − γ, φ− 〈µ, φ〉〉

〈γN , 1〉 =T 0N

DN

et on a la majoration grossiere

|∆N | = | T0N

DN

| = | 〈γN , φ− 〈µ, φ〉〉〈γN , 1〉 | ≤ ‖φ− 〈µ, φ〉 ‖ ≤ osc(φ)

25 / 74

Page 26: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

on rappelle que

T 0N

D=

〈γN − γ, φ− 〈µ, φ〉〉〈γ, 1〉 et

DN − D

D=

〈γN − γ, 1〉〈γ, 1〉

et on remarque que, pour φ′ = φ− 〈µ, φ〉

g φ′ − 〈η, g φ′〉 = g (φ− 〈µ, φ〉)− 〈η, g φ〉+ 〈µ, φ〉 〈η, g〉 = g (φ− 〈µ, φ〉)

d’apres le Theoreme precedent applique a φ− 〈µ, φ〉 et a φ ≡ 1, on a

‖TN0

D‖2 = {E|T

N0

D|2 }1/2 = 1√

N(〈η, g2 |φ− 〈µ, φ〉|2〉

〈η, g〉2 )1/2

‖TN0

D‖p ≤ cp√

N(〈η, gp |φ− 〈µ, φ〉|p〉

〈η, g〉p )1/p

‖DN − D

D‖p ≤ cp√

N(〈η, |g − 〈η, g〉|p〉

〈η, g〉p )1/p

26 / 74

Page 27: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

on remarque que

∆N =T 0N

DN

=T 0N

D− T 0

N

DN

DN − D

D=

T 0N

D−∆N

DN − D

D

et en iterant

∆N =T 0N

D− (

T 0N

D−∆N

DN − D

D)DN − D

D

=T 0N

D− T 0

N

D

DN − D

D+∆N (

DN − D

D)2

27 / 74

Page 28: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

pour le biais, on remarque que T 0N est de moyenne nulle de sorte que

E[∆N ] = −E[T 0N

D

DN − D

D] + E[

T 0N

DN

(DN − D

D)2 ]

et en utilisant l’inegalite triangulaire puis l’inegalite de Holder, on a

|E[∆N ] | ≤ E| T0N

D

DN − D

D|+ E| T

0N

DN

(DN − D

D)2 |

≤ ‖T0N

D‖2 ‖

DN − D

D‖2 + osc(φ) ‖DN − D

D‖22

ou les deux termes dans la majoration sont d’ordre 1/N

28 / 74

Page 29: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

pour le moment d’ordre 2 (variance), en utilisant l’inegalite triangulairepuis l’inegalite de Holder, on a

| ‖∆N‖2 − ‖T0N

D‖2 | ≤ ‖∆N − T 0

N

D‖2

≤ ‖T0N

D

DN − D

D‖2 + ‖T

0N

DN

(DN − D

D)2‖2

≤ ‖T0N

D‖4 ‖

DN − D

D‖4 + osc(φ) ‖DN − D

D‖24

ou les deux termes dans la majoration sont d’ordre 1/N

29 / 74

Page 30: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

pour le moment d’ordre p, une majoration grossiere suffit et en utilisantl’inegalite triangulaire, on a

‖∆N‖p ≤ ‖T0N

D‖p + ‖T

0N

DN

DN − D

D‖p

≤ ‖T0N

D‖p + osc(φ) ‖DN − D

D‖p

ou les deux termes dans la majoration sont d’ordre 1/√N �

30 / 74

Page 31: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Theoreme

√N [

〈γN , 1〉〈γ, 1〉 −1] =⇒ N (0,V ) et

√N 〈µN−µ, φ〉 =⇒ N (0, v(φ))

en distribution quand N ↑ ∞, pour toute fonction φ, avec l’expressionsuivante pour la variance asymptotique

V =〈η, g2〉〈η, g〉2 − 1 et v(φ) =

〈η, g2 |φ− 〈µ, φ〉|2〉〈η, g〉2

Preuve on remarque que

γN = g SN(η) et µN =γN

〈γN , 1〉

de sorte que pour toute fonction φ

√N

〈γN − γ, φ〉〈γ, 1〉 =

√N

〈SN(η)− η, g φ〉〈η, g〉 =⇒ N (0,

var(g φ, η)

〈η, g〉2 )

en distribution quand N ↑ ∞, pour toute fonction φ

31 / 74

Page 32: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

en particulier pour φ ≡ 1

√N [

〈γN , 1〉〈γ, 1〉 − 1] =⇒ N (0,

var(g , η)

〈η, g〉2 )

en distribution quand N ↑ ∞, et il resulte de la decomposition suivante

〈µN − µ, φ〉 = 〈γN − γ, φ− 〈µ, φ〉〉〈γN , 1〉

que√N 〈µN − µ, φ〉 = 〈γ, 1〉

〈γN , 1〉√N

〈γN − γ, φ− 〈µ, φ〉 〉〈γ, 1〉

d’apres la loi des grands nombres

〈γN , 1〉 = 1

N

N∑

i=1

g(ξi ) −→ 〈η, g〉 = 〈γ, 1〉

en probabilite quand N ↑ ∞, et d’apres le lemme de Slutsky

√N 〈µN − µ, φ〉 =⇒ N (0,

var(g (φ− 〈µ, φ〉), η)〈η, g〉2 )

en distribution quand N ↑ ∞32 / 74

Page 33: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

finalement, on remarque que

〈η, g (φ− 〈µ, φ〉) 〉 = 〈η, g φ〉 − 〈η, g〉 〈µ, φ〉 = 0

de sorte que

var(g (φ− 〈µ, φ〉), η) = 〈η, g2 |φ− 〈µ, φ〉|2〉 �

Remarque la variance asymptotique V s’interprete en terme de ladistance du χ2 entre les distributions de probabilite µ et η, definie par

χ2(µ, η) =

E

(dµ

dη(x)− 1)2 η(dx) =

E

(dµ

dη(x))2 η(dx)− 1

compte tenu que

µ = g · η =g η

〈η, g〉 de sorte quedµ

dη(x) =

g(x)

〈η, g〉

33 / 74

Page 34: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Introduction

Distributions de Gibbs–Boltzmann

Melanges finismelanges finisstrategies de re–echantillonnagestrategies de re–echantillonnage : comparaisons

Distributions a support fini

Approximation particulaire

34 / 74

Page 35: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Melanges finisetant donne un melange fini

η =M∑

i=1

wi mi avecM∑

i=1

wi = 1

de M distributions de probabilite (m1, · · · ,mM) avec les poids positifs(w1, · · · ,wM), et s’il est facile

◮ de simuler pour tout i = 1 · · ·M une variable aleatoire distribueeselon mi

alors il est facile de simuler une variable aleatoire distribuee selon η : ilsuffit

◮ de simuler une variable aleatoire I a valeurs dans l’ensemble fini{1, · · · ,M} et distribuee selon les poids (w1, · · · ,wM), c’est–a–dire

P[I = i ] = wi pour tout i = 1 · · ·M

◮ et de generer une variable aleatoire distribuee selon mI

35 / 74

Page 36: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

la probabilite de selectionner une composante du melange est d’autantplus grande que le poids de cette composante est grand

objectif : simuler un N–echantillon distribue selon le melange fini η, oubien approximer la distribution de probabilite η par un melange fini de Nmasses de Dirac, appelees particules, ou

le nombre N de particules n’est pas necessairement egalau nombre M de composantes du melange

il restera a savoir

◮ simuler une variable aleatoire a valeurs dans l’ensemble fini{1, · · · ,M} et distribuee selon des poids (w1, · · · ,wM) donnes

◮ voire simuler globalement un N–echantillon a valeurs dansl’ensemble fini {1, · · · ,M} et distribue selon des poids (w1, · · · ,wM)donnes, plus efficacement qu’en repetant N fois la simulation d’uneseule variable aleatoire

36 / 74

Page 37: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Re–echantillonnage multinomial

on simule un N–echantillon (ξ1, · · · , ξN) distribue selon η, et on pose

SN(η) =1

N

N∑

i=1

δξi(multi)

utilisation des poids pour selectionner (avec remise) les composantes dumelange de plus forts poids, avec l’effet attendu que

◮ les composantes de plus forts poids seront selectionnees plusieurs fois

◮ a l’inverse, les composantes de moins forts poids pourront meme etreeliminees et ne plus etre representees du tout dans l’approximation

si Ni designe le nombre de fois que la i–eme composante du melange estselectionee, ou de maniere equivalente son nombre Ni de representantsdans l’approximation, pour tout i = 1 · · ·M, alors

le vecteur aleatoire (N1, · · · ,NM) suit une loi multinomiale

37 / 74

Page 38: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Theoreme la variable aleatoire 〈SN(η), φ〉 est un estimateur non–biaisede 〈η, φ〉, et les moments de l’erreur d’estimation verifient

E| 〈SN(η)− η, φ〉 |2 = 1

Nvar(φ, η)

ou de maniere equivalente

E| 〈SN(η)− η, φ〉 |2 = 1

N

M∑

i=1

wi var(φ,mi ) +1

NWM

WM =M∑

i=1

wi |〈mi , φ〉|2 − |M∑

i=1

wi 〈mi , φ〉|2

pour toute fonction φ

interpretation de WM comme variance des moyennes intra–composantesaffectees du poids de chaque composante

38 / 74

Page 39: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

preuve de l’equivalence :

var(φ, η) = 〈m, |φ|2〉 − |〈m, φ〉|2

=

M∑

i=1

wi 〈mi , |φ|2〉 − |M∑

i=1

wi 〈mi , φ〉|2

=

M∑

i=1

wi [ 〈mi , |φ|2〉 − |〈mi , φ〉|2 ]

+ [

M∑

i=1

wi |〈mi , φ〉|2 − |M∑

i=1

wi 〈mi , φ〉|2 ]

=

M∑

i=1

wi var(φ,mi ) + [

M∑

i=1

wi |〈mi , φ〉|2 − |M∑

i=1

wi 〈mi , φ〉|2 ]

39 / 74

Page 40: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Remarque intuitivement, si tous les poids sont egaux a (ou proches de)1/M, c’est–a–dire si la repartition des poids de melange est proche del’equidistribution, alors il peut etre contre–productif de selectionner lescomposantes du melange

40 / 74

Page 41: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Stratification par composante

on decide de conserver les poids et de simuler un representantexactement pour chaque composante du melange (ce qui impose que Nest necessairement egal au nombre M de composantes du melangeinitial), et on pose

ηM =

M∑

i=1

wi δξi(strata)

ou independamment pour tout i = 1 · · ·M la variable aleatoire ξi estdistribuee selon mi

41 / 74

Page 42: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Theoreme la variable aleatoire 〈ηM , φ〉 est un estimateur non–biaise de〈η, φ〉, et la variance de l’erreur d’estimation verifie

E| 〈ηM − η, φ〉 |2 =M∑

i=1

w2i var(φ,mi )

pour toute fonction φ

Preuve par independance

E| 〈ηM−η, φ〉 |2 = E|M∑

i=1

wi [φ(ξi )−〈mi , φ〉 ] |2 =

M∑

i=1

w2i E|φ(ξi )− 〈mi , φ〉|2︸ ︷︷ ︸

var(φ,mi )

pour toute fonction φ �

Remarque intuitivement, cette approche est pertinente dans le cas ou larepartition des poids de melange est proche de l’equidistribution, mais enrevanche peu appropriee dans le cas extreme ou presque tous les poidssont nuls sauf quelques uns

42 / 74

Page 43: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

soit a comparer les variances des estimateurs (multi) et (strata) avecN = M

Vmulti ≥1

M

M∑

i=1

wi var(φ,mi ) et Vstrata =M∑

i=1

w2i var(φ,mi )

◮ a l’equidistribution, c’est–a–dire si tous les poids sont egaux entre eux(et egaux a 1/M), alors

Vmulti ≥1

M2

M∑

i=1

var(φ,mi ) = Vstrata

ce qui confirme l’intuition que redistribuer est contre–productif dans cecas◮ a l’inverse, si la distribution des poids est completement degeneree,c’est–a–dire si tous les poids sont nuls sauf le poids wa = 1 pour unecertaine composante du melange, alors

Vmulti =1

Mvar(φ,ma) ≤ var(φ,ma) = Vstrata

ce qui confirme l’intuition que redistribuer est pertinent dans ce cas43 / 74

Page 44: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Echantillonnage adaptatif

etant donne le melange fini

η =

M∑

i=1

wi mi

il n’est veritablement interessant de selectionner les differentescomposantes que si les poids (w1, · · · ,wM) sont tres desequilibresplusieurs criteres ete proposes pour mesurer l’ecart a l’equidistribution, etpour decider de redistribuer ou non les particules

◮ taille effective de l’echantillon

◮ entropie de l’echantillon

44 / 74

Page 45: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

la distance du χ2 entre deux vecteurs de probabilite p = (p1, · · · , pM) etq = (q1, · · · , qM) est definie par

χ2(p, q) =

M∑

i=1

qi (piqi

− 1)2 =

M∑

i=1

p2iqi

− 1

et en particulier pour p = (w1, · · · ,wM) et q = (1/M, · · · , 1/M), il vient

0 ≤ M

M∑

i=1

w2i − 1 =

M

Meff

− 1

ou Meff est la taille effective de l’echantillon, definie par

1 ≤ Meff = 1 / [

M∑

i=1

w2i ] ≤ M

et ou l’egalite est atteinte a l’equidistribution, ce qui suggere deredistribuer si

M

Meff

− 1 ≥ χ2red > 0 c–a–d si Meff ≤ cred M

ou le seuil cred = 1/(1 + χ2red

) < 1 reste a determiner45 / 74

Page 46: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

re–interpretation des resultats precedentspour l’estimateur (strata) avec stratification par composante

E| 〈ηM − η, φ〉 |2 =M∑

i=1

w2i var(φ,mi ) =

1

Meff

M∑

i=1

w�i var(φ,mi )

pour toute fonction φ, ou les nouveaux poids (w�1 , · · · ,w�

M ) sont definispour tout i = 1 · · ·M par

w�i =

w2i

M∑

j=1

w2j

c–a–d w�i ∝ w2

i

a une constante de normalisation pres

46 / 74

Page 47: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

on introduit l’approximation adaptative

ηM =

M∑

i=1

wi δξi si Meff > cred M

avec ξi ∼ mi pour tout i = 1 · · ·M

1

M

M∑

i=1

δξisi Meff ≤ cred M

avec ξi ∼ η pour tout i = 1 · · ·M

avec l’expression suivante pour la variance de l’erreur d’estimation

E| 〈ηM − η, φ〉 |2 =

1

Meff

M∑

i=1

w�i var(φ,mi ) si Meff > cred M

1

Mvar(φ, η) si Meff ≤ cred M

47 / 74

Page 48: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Remarque re–echantillonner selon les poids respectifs n’est donc approprieque dans les cas ou la repartition des poids de melange est eloigne del’equidistribution, mais introduit de toute maniere un alea supplementaire

pour limiter cette source d’alea, on peut par exemple affecter de manieredeterministe a chaque composante i = 1 · · ·M un nombre derepresentants egal au nombre Ni de fois que le poids 1/N est contenudans le poids wi de la composante (le poids 1/N est celui qui sera affectea chaque particule dans l’approximation finale)

a l’issue de cette premiere passe, (N − N0) representants sont dejaaffectes et il reste ensuite a completer la population de particules demaniere a assurer un effectif de la taille N desiree, par exemple ensimulant un N0–echantillon selon la distribution residuelle des poids nonencore affectes

48 / 74

Page 49: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

0.05 0.05 0.2 0.05 0.1 0.1 0.4 0.05

ici N = M = 8, d’ou 1/N = 0.125, et a l’issue de la premiere passe :la composante 3 a recu 1 representant, la composante 7 a recu 3representants,et il reste N0 = 4 representants a affecter

49 / 74

Page 50: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

0.05 0.05 0.2 0.05 0.1 0.1 0.4 0.05

0.05 0.05 0.075 0.05 0.1 0.1 0.025 0.0550 / 74

Page 51: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Re–echantillonnage residuel multinomialpour toute composante i = 1 · · ·M on definit le nombre Ni = ⌊N wi⌋ deses representants affectes a l’issue de la premiere passe, comme resultatde la division euclidienne

N wi = Ni + qi avec 0 ≤ qi < 1

et compte tenu des identites

N =

M∑

i=1

N wi =

M∑

i=1

(Ni + qi ) =

M∑

i=1

Ni + N0 avec N0 =

M∑

i=1

qi

et

η =

M∑

i=1

wi mi =1

N

M∑

i=1

(Ni + qi ) mi =

M∑

i=1

Ni

Nmi +

N0

Nm0

avec

m0 =

M∑

i=1

qiN0

mi

on deduit qu’il reste N0 representants a affecter de maniere a approcherla distribution de probabilite residuelle convenablement renormalisee m0

51 / 74

Page 52: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

l’approximation proposee consiste a simuler◮ pour tout i = 1 · · ·M, un Ni–echantillon (ξi,1, · · · , ξi,Ni ) distribue

selon mi

◮ un N0–echantillon (ξ0,1, · · · , ξ0,N0) distribue selon le melange fini m0

toutes les variables aleatoires etant simulees de maniere independantes,et a poser

ηN =1

N

M∑

i=1

Ni∑

j=1

δξi,j

+1

N

N0∑

j=1

δξ0,j

(residu)

c’est–a–dire

〈ηN , φ〉 =1

N

M∑

i=1

Ni∑

j=1

φ(ξi,j) +1

N

N0∑

j=1

φ(ξ0,j)

et par difference

〈ηN − η, φ〉 = 1

N

M∑

i=1

Ni∑

j=1

[φ(ξi,j)− 〈mi , φ〉] +1

N

N0∑

j=1

[φ(ξ0,j)− 〈m0, φ〉]

pour toute fonction φ52 / 74

Page 53: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Theoreme la variable aleatoire 〈ηN , φ〉 est un estimateur non–biaise de〈η, φ〉, et la variance de l’erreur d’estimation verifie

E| 〈ηN − η, φ〉 |2 = 1

N[

M∑

i=1

Ni

Nvar(φ,mi ) +

N0

Nvar(φ,m0) ]

ou de maniere equivalente

E| 〈ηN − η, φ〉 |2 = 1

N

M∑

i=1

wi var(φ,mi ) +N0

N2WM

WM =

M∑

i=1

qiN0

|〈mi , φ〉 |2 − |M∑

i=1

qiN0

〈mi , φ〉 |2

pour toute fonction φ

interpretation de WM comme variance des moyennes intra–composantesaffectees du poids residuel de chaque composante

53 / 74

Page 54: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

preuve de l’equivalence :

Ni

Nvar(φ,mi ) = wi var(φ,mi )−

qiN

[ 〈mi , |φ|2〉 − |〈mi , φ〉 |2 ]

var(φ,m0) =

M∑

i=1

qiN0

〈mi , |φ|2〉 − |M∑

i=1

qiN0

〈mi , φ〉 |2

de sorte que

M∑

i=1

Ni

Nvar(φ,mi ) +

N0

Nvar(φ,m0) =

=M∑

i=1

wi var(φ,mi )−M∑

i=1

qiN

[ 〈mi , |φ|2〉 − |〈mi , φ〉 |2 ]

+N0

N[

M∑

i=1

qiN0

〈mi , |φ|2〉 − |M∑

i=1

qiN0

〈mi , φ〉 |2 ]

=

M∑

i=1

wi var(φ,mi ) +N0

N[

M∑

i=1

qiN0

|〈mi , φ〉 |2 − |M∑

i=1

qiN0

〈mi , φ〉 |2 ]54 / 74

Page 55: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Preuve du Theoreme par independance

E| 〈ηN − η, φ〉 |2 =

= E| 1N

M∑

i=1

Ni∑

j=1

[φ(ξi,j)− 〈mi , φ〉] +1

N

N0∑

j=1

[φ(ξ0,j)− 〈m0, φ〉] |2

=1

N2

M∑

i=1

Ni∑

j=1

E|φ(ξi,j)− 〈mi , φ〉|2 +1

N2

N0∑

j=1

E|φ(ξ0,j)− 〈m0, φ〉|2

=1

N[

M∑

i=1

Ni

Nvar(φ,mi ) +

N0

Nvar(φ,m0) ]

pour toute fonction φ �

55 / 74

Page 56: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Introduction

Distributions de Gibbs–Boltzmann

Melanges finis

Distributions a support fini

Approximation particulaire

63 / 74

Page 57: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Echantillonnage selon une distribution a support fini

objectif : simuler une variable aleatoire I , ou un N–echantillon(I1, · · · , IN), a valeurs dans l’ensemble fini {1, · · · ,M} et distribue selonles poids (w1, · · · ,wM)

la methode la plus directe est la methode d’inversion :on decoupe l’intervalle [0, 1] en M segments adjacents de longueursrespectives (w1, · · · ,wM),

◮ on simule une variable aleatoire U uniforme sur [0, 1]

◮ si U appartient au j–eme segment, alors on pose I = j

une recherche binaire en O(log2 M) operations permet d’obtenir ceresultat, et il suffit donc de N O(log2 M) operations pour generer unN–echantillon a valeurs dans l’ensemble fini {1, · · · ,M} et distribueselon les poids (w1, · · · ,wM)

64 / 74

Page 58: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

amelioration : au lieu de repeter N fois l’operation de

◮ generer une variable aleatoire uniforme sur [0, 1]

◮ puis effectuer une recherche binaire

on simule un N–echantillon (U1, · · · ,UN) de variables aleatoiresuniformes sur [0, 1], on ordonne cet echantillon, ce qui necessiteO(N log2 N) operations, et on applique la methode d’inversion al’echantillon re–ordonne U(1) ≤ · · · ≤ U(N)

si U(i) appartient au j–eme segment, alors on pose Ii = j , de sorte quepour simuler Ii+1 il suffit de tester l’appartenance de U(i+1) aux segmentssitues a partir du j–eme segment

❄ ❄❄ ❄❄ ❄ ❄ ❄

65 / 74

Page 59: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

amelioration supplementaire : pour eviter l’etape prealable dere–ordonner les variables aleatoires uniformes, on simule directement uneN–statistique d’ordre uniforme, c’est–a–dire un vecteur aleatoire(V1, · · · ,VN) distribue comme le vecteur aleatoire obtenu enre–ordonnant un N–echantillon (U1, · · · ,UN) de variables aleatoiresuniformes sur [0, 1], ce qui peut etre effectue en O(N) operations

Proposition soit (U1, · · · ,UN) un N–echantillon de variables aleatoiresuniformes sur [0, 1], et on definit

Vi = U1/NN · · ·U1/i

i pour tout i = N · · · 1

ou bien par recurrence : VN = U1/NN et

Vi = Vi+1 U1/ii pour tout i = N − 1 · · · 1

alors le vecteur aleatoire (V1, · · · ,VN) est distribue comme le vecteuraleatoire (U(1), · · · ,U(N)) obtenu en re–ordonnant (U1, · · · ,UN)

fonction MATLAB fct multi.m

66 / 74

Page 60: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Introduction

Distributions de Gibbs–Boltzmann

Melanges finis

Distributions a support fini

Approximation particulaire

67 / 74

Page 61: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

Algorithme SIR : echantillonnage / re–echantillonnage

objectif : approximer la suite {µk} (par exemple le filtre bayesien) definiepar la relation de recurrence

µk−1 −−−−−−−−−→ ηk = µk−1 Qk −−−−−−−−−→ µk = gk · ηk

avec la condition initiale µ0 = g0 · η0idee : rechercher une approximation sous la forme de distributions deprobabilite empiriques (eventuellement ponderees)

ηk ≈ ηNk =1

N

N∑

i=1

δξik

et µk ≈ µNk =

N∑

i=1

w ik δ

ξikavec

N∑

i=1

w ik = 1

associees a une population de N particules caracterisee par

◮ les positions (ξ1k , · · · , ξNk ) dans E◮ et les poids positifs (w1

k , · · · ,wNk )

68 / 74

Page 62: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

approximation initiale : par echantillonnage pondere

µ0 = g0 · η0 ≈ g0 · SN(η0) =

N∑

i=1

g0(ξi0) δξi0

N∑

j=1

g0(ξj0)

=

N∑

i=1

w i0 δξi0

ou les variables aleatoires (ξ10 , · · · , ξN0 ) sont i.i.d. de distributioncommune η0

etape de correction : clairement, a partir de la definition

µNk = gk · ηNk =

N∑

i=1

gk(ξik) δξik

N∑

j=1

gk(ξjk)

=N∑

i=1

w ik δ

ξik

est automatiquement de la forme recherchee

69 / 74

Page 63: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

etape de prediction : a partir de la definition

〈µNk−1 Qk , φ〉 =

µNk−1(dx)

Qk(x , dx′)φ(x ′)

=N∑

i=1

w ik−1

Qk(ξik−1, dx

′)φ(x ′)

=

[N∑

i=1

w ik−1 Qk(ξ

ik−1, dx

′) ]φ(x ′)

pour toute fonction φ, de sorte que

µNk−1 Qk =

N∑

i=1

w ik−1 m

ik

s’exprime comme un melange fini, avec

mik(dx

′) = Qk(ξik−1, dx

′) pour tout i = 1 · · ·Nqu’il s’agit d’approximer / echantillonner, selon une methode appropriee

70 / 74

Page 64: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

algorithme SIR (sampling with importance resampling), recursif

◮ pour k = 0, independamment pour tout i = 1 · · ·Non simule une v.a. ξi0 distribuee selon η0(dx), et on definit

w i0 = g0(ξ

i0) /

[N∑

j=1

g0(ξj0)

]

◮ pour tout k = 1 · · · n, independamment pour tout i = 1 · · ·N• on selectionne un individu ξ i

k−1 au sein de la population(ξ1k−1, · · · , ξ

Nk−1) et selon les poids (w 1

k−1, · · · ,wNk−1)

• on simule une v.a. ξik distribuee selon mik(dx

′) = Qk(ξik−1, dx

′)

et on definit

w ik = gk(ξ

ik) /

[N∑

j=1

gk(ξjk)

]

71 / 74

Page 65: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

algorithme SIR (sampling with importance resampling), recursif

◮ pour k = 0, independamment pour tout i = 1 · · ·Non simule une v.a. ξi0 distribuee selon η0(dx), et on definit

w i0 = qV0 (Y0 − h0(ξ

i0)) /

[N∑

j=1

qV0 (Y0 − h0(ξj0))

]

◮ pour tout k = 1 · · · n, independamment pour tout i = 1 · · ·N• on selectionne un individu ξ i

k−1 au sein de la population(ξ1k−1, · · · , ξ

Nk−1) et selon les poids (w 1

k−1, · · · ,wNk−1)

• on simule une v.a. W ik distribuee selon pW

k (dw)

• on pose ξik = fk(ξik−1,W

ik)

et on definit

w ik = qVk (Yk − hk(ξ

ik)) /

[N∑

j=1

qVk (Yk − hk(ξjk))

]

72 / 74

Page 66: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

en resume, les particules (ξ1k−1, · · · , ξNk−1)

◮ sont selectionnees selon leurs poids respectifs (w1k−1, · · · ,wN

k−1)[etape de selection]

◮ evoluent selon les probabilites de transition Qk(x , dx′) [etape de

mutation]

◮ et sont ponderees en evaluant la fonction de vraisemblance gk[etape de ponderation]

pros : au lieu de s’accumuler le long de chaque trajectoire, les poids sontici utilises pour redistribuer les particulesles particules de plus fort poids sont multipliees et les particules de plusfaible poids sont elimineesen ne conservant a chaque pas de temps que les particules les pluspertinentes, on espere concentrer la puissance de calcul disponible dansles regions d’interet

73 / 74

Page 67: cours OROC–SC–FP (3/5) Filtrage Bay´esien et … · 2017-10-17 · Introduction Distributions de Gibbs–Boltzmann M´elanges finis Distributions `a support fini Approximation

Introduction Distributions de Gibbs–Boltzmann Melanges finis Distributions a support fini Approximation particulaire

cons : introduction d’un alea supplementaire, a l’etape dere–echantillonnagesolutions proposees

◮ autres procedures de redistribution / allocation d’un nombre(quasiment) deterministe de descendants a chaque particule

◮ re–echantillonnage adaptatif, seulement quand les poids(w1

k , · · · ,wNk ) sont trop desequilibres

cons : reduction du nombre de positions differentes

◮ degenerescence des positions : en pratique, on compte sur l’etape demutation pour recreer de la diversite

solution proposee

◮ apres l’etape de re–echantillonnage, on deplace d’une petite quantitealeatoire chaque particule selectionnee

74 / 74