calcul stochastique

Upload: tsunami238

Post on 06-Jul-2015

750 views

Category:

Documents


3 download

DESCRIPTION

cour d'introduction au calcul stochastique

TRANSCRIPT

ELEMENTSDECALCULSTOCHASTIQUEMoniqueJeanblanc,ThomasSimonIRBID,Septembre20052Tabledesmati`eres1 Notionsgeneralesdeprobabilites 51.1 Espace probabilise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Independance, esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Theor`eme de Radon-Nikodym. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.4 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.5 Convergence de variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Martingalesettempsdarret 172.1 Generalites sur les processus stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Temps darret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.3 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 Lemouvementbrownien 233.1 Un peu dhistoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.2 Denitions, constructions, et premi`eres proprietes . . . . . . . . . . . . . . . . . . . . . . 233.3 La propriete de Markov et ses consequences . . . . . . . . . . . . . . . . . . . . . . . . . 283.4 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.5 Mouvement brownien multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 Lintegralestochastique-FormuledIto 354.1 Lintegrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354.1.1 Le cas des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364.1.2 Le cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374.1.3 Lintegrale de Wiener vue comme processus gaussien. . . . . . . . . . . . . . . . 374.2 Application de lintegrale de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.2.1 Le processus dOrnstein-Uhlenbeck. . . . . . . . . . . . . . . . . . . . . . . . . . 394.2.2 Le processus de Vasicek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.3 Lintegrale stochastique generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.3.1 Cas des processus etages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434.3.2 Cas general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.4 Processus dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.5 Formule dIto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494.6 Formule de Black & Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Equationsdierentiellesstochastiques 535.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535.2 Quelques proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.1 Propriete de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.2 Theor`eme de comparaison. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.3 Fonction dechelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.2.4 Martingale exponentielle et condition de Novikov. . . . . . . . . . . . . . . . . . 595.3 Lien avec les equations aux derivees partielles . . . . . . . . . . . . . . . . . . . . . . . . 595.3.1 Probl`eme parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595.3.2 Formule de Black & Scholes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.3.3 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615.4 Processus de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6334 TABLEDESMATI`ERES5.4.1 Norme dun mouvement Brownienn-dimensionel . . . . . . . . . . . . . . . . . . 635.4.2 Denition g nerale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.4.3 Probabilites de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.5 Mod`ele de Cox-Ingersoll-Ross . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 Changementdeprobabilite-Theor`emedeGirsanov 676.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676.2 La formule de Cameron-Martin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 676.3 Les deux theor`emes de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.4 Theor`eme de representation previsible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716.4.1 Representation previsible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716.5 Applications au mouvement brownien et aux EDS . . . . . . . . . . . . . . . . . . . . . 716.5.1 Calcul desperances Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716.5.2 Calcul desperances Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 726.5.3 Temps de passage du Brownien drifte . . . . . . . . . . . . . . . . . . . . . . . . 736.5.4 Solutions faibles dEDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 736.6 Theor`eme fondamental de la nance : Probabilite risque neutre . . . . . . . . . . . . . . 746.6.1 Changement de numeraire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 757 Introductionauxmod`elespoissonniens 797.1 Processus ponctuels sur R+. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797.2 Lhypoth`ese de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 807.3 La propriete de Markov forte et ses consequences . . . . . . . . . . . . . . . . . . . . . . 837.4 Une formule dIto avec sauts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 847.5 Des martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 857.5.1 Exemple de changement de probabilite . . . . . . . . . . . . . . . . . . . . . . . . 86Chapitre1NotionsgeneralesdeprobabilitesDanscechapitreintroductifnousrassemblonslesnotionsbasiquesdetheoriedesprobabilitesquiserontutiliseesdanslasuiteducours. Nousrenvoyonsauxouvrages[7] [9] ouencore[24] pourlesdemonstrations non ecrites ici, et aussi pour de plus amples informations. Ici comme dans les chapitressuivants, la plupart des exercices (dont les plus diciles sont marques dun *) sont corriges dans [8] oudans [22].1.1 EspaceprobabiliseOnconsid`ereunensembleabstraitquelconque, qui modeliselecaract`erealeatoireduncertainphenom`ene et portera dans la suite le nom densemble fondamental, ou despace des chances. On noteP() lensemble des parties de . Rappelons que si Card =n, alors Card P()=2n. Par exemplesi = 1, 2, 3, alorsP() = , 1, 2, 3, 1, 2, 1, 3, 2, 3, .Remarquons queP() contient toujours et . Quand est ni ou denombrable, lensembleP()decrit les evenements aleatoires associes `a lexperience consideree. Quand est inni non-denombrable(ce serale cas laplupart dutemps), lensemble P() est parfois tropgros pour pouvoir etudiermathematiquement la probabilite de ces evenements. On a alors recours `a la notion de tribu :Denition1.1Une tribu ou -alg`ebre Fsur est un sous-ensemble de P() contenant et veriantles proprietes suivantes :A F=Ac F(stabilite par passage au complementaire).A1, . . . , An, . . . F=(A1 . . . An . . .) F(stabilite par intersection denombrable).Il faut comprendre une tribucomme laquantite dinformationassociee `aune certaine experiencealeatoire. Remarquons quune tribu contient forcement et reste stable par intersection denombrable,du fait de la premi`ere loi de Morgan :

+i=1Ai

c=+i=1Aci.Les exemples les plus simples de tribus sur sont , (tribu triviale), P() (tribu maximale), ou, A, Ac, pouruncertainA (tribuengendreeparA). QuandFestunetribusur, onditque (, F) est un espace mesurable. Une sous-tribu de Fest une tribu Gincluse dans F, au sens o` uA G A F. On montre tr`es facilement laProposition1.2Toute intersection de tribus sur est une tribu sur .Remarquons que cette propriete est fausse pour la reunion : une reunion de tribus nest pas forcementune tribu. Par exemple si A1, A2 , alors F1 = , A1, Ac1, et F2 = , A2, Ac2, sont des tribus,mais pas F1F2 en general, par exemple si A1A2 F1F2. La denition suivante est fondamentale :Denition1.3Soit Aune partie quelconque de P(). On appelle tribu engendree par Aet on note(A) lintersection de toutes les tribus contenant A.56 CHAPITRE1. NOTIONSGENERALESDEPROBABILITESSi F1etF2sont deux tribus, on noteF1 F2la tribu engendree parF1 F2. Cest la plus petitetribu contenant les deux tribus F1F2. Remarquons que(A) est toujours bien deni comme tribu :P()estunetribucontenant Aetlintersectiondunefamillequelconquedetribusestunetribu.Cependant,ilestengeneraldicile(voireimpossible)dedecrire(A)plusprecisement,saufquandAest un ensemble ni. Un exemple important est le suivant :Denition1.4On appelle tribu des Boreliens de R et on noteB(R) (ouBquand aucune ambigutenest possible) la tribu engendree par les intervalles ouverts ]a, b[,a > b R.Dans la denition on aurait evidemment pu remplacer ouvertpar ferme ou ouvert `a droite ferme `agauche...etc, vues les proprietes de stabilite des tribus. Soulignons quil est possible (mais dicile, voir[14]) de construire des sous ensembles de R qui ne sont pas des Boreliens, autrement dit B(R)P(R).Denition1.5Soit(, F)et(E, E )deuxespacesmesurables. Uneapplicationf: Eestdite(F, E )mesurable(oumesurablelorsquil nyapasdambigute)si f1(A) Fpourtout A E ,o` ulon a notef1(A) = [f() A.Unefonctionf : RRest diteboreliennesi elleest (B(R), B(R))-mesurable, autrement dit sif1(A) B(R) pour toutA B(R). Par construction des Boreliens, il sut que cette propriete soitveriee pour les intervalles ouvertsA. En particulier, les fonctions continues sont boreliennes, puisquelimage reciproque dun intervalle ouvert par une fonction continue est une reunion dintervalles ouverts,donc un Borelien.Denition1.6Soit(, F)unespacemesurable.Unevariable aleatoire reelle (v.a.r.)Xestuneap-plication mesurable de (, F) dans (R, B(R)).Lexemple fondamental de variable aleatoire est la fonction indicatrice dun ensembleA F:11A :

1 si A0 sinon.Remarquons que les variables aleatoires reelles sont stables par composition avec les fonctions boreliennes :si X est une v.a.r. G-mesurable et fune fonction borelienne, alors f(X) est une v.a.r. G-mesurable. Lesv.a.r. peuvent etre approchees en limite croissante simple par des v.a.r. en escalier qui sont du typeni=1ai11AiavecAi G. Lespace (R, B) est lexemple plus simple despace detat associe `a une variable aleatoire.Onpeutcependantdenirdesv.a. surdesespacesplusgros, commeC(R, R), lespacedesfonctionscontinues de R dans R, muni de sa tribu des Boreliens B(C(R, R)). Cette derni`ere est la tribu engendreepar les polynomes. Une v.a. `a valeurs dans C(R, R) portera le nom de processus.Denition1.7Latribuengendree par unevariablealeatoire Xdeniesur (, F) est lensemble(X) = X1(A), A B(R).On verie que (X) est une tribu contenue dans F : cest la plus petite tribu sur rendant X mesurable.Si Gest une sous-tribu de F, alors une v.a.r.Xest G-mesurable si(X) G. On a laProposition1.8Soit Xune v.a.r. et Y une v.a.r. (X)-mesurable. Alors il existe une fonctionboreliennef: R R telle queY= f(X).Nous introduisons maintenant la denition centrale de ce chapitre :Denition1.9Soit (, F) un espace mesurable. Une probabilite sur (, F) est une application P deFdans [0, 1] telle que P[] = 1 SiA1. . . An. . . sont des parties de Fdeux `a deux disjointes, alorsP n=0An=n=0P[An] .1.1. ESPACEPROBABILISE 7Ladeuxi`emeproprieteportelenomde-additivite. Onutilisesouventlecritureaveclesfonctionsindicatrices :P[A] =

AdP=

11AdP.Unespacemesurable(, F)muni duneprobabilite Psecrit(, F, P)etonparlealorsdespacedeprobabilite ou despace probabilise. On demontre aisement les proprietes suivantes :(a) P[A] +P[Ac] = 1 pour toutA F.(b)A B=P[A] P[B](c) P[A B] +P[A B] = P[A] +P[B] pour toutA, B F.(d) Si les An forment une suite croissante (resp. decroissante) delements de F, cest-`a-dire si An An+1(resp.An An+1), et siA = nAn(resp.A = nAn) alors P[An] P[A] quandn +.Exercice1.10(a) Montrer la generalisation suivante (connue sous le nom de Formule de Poincare) dela propriete (c) : pour toutA1. . . An F,Pni=1Ai=nk=1(1)k+11i1 0 il existe> 0 tel que P[A] < =E[[X[11A] < .(b) Soit G = G F une famille de sous-tribus de F. Deduire du (a) que la famille E[X[G], G Gest U.I.12 CHAPITRE1. NOTIONSGENERALESDEPROBABILITESDensite conditionnelle: soit (X, Y ) uncoupledev.a.r. ayant unedensite f(x, y). Les densitesmarginales deXetYsont donnees parfX(x)=

Rf(x, y) dy et fY (y)=

Rf(x, y) dx.QuandXY onalaformuleduproduit : f(x, y) =fX(x)fY (y). QuandXet Y nesont plusindependantes, la formule du produit est remplacee par une formule de desintegration : on posefX/Y =y(x) =f(x, y)fY (y)si fY (y) = 0 et fX/Y =y(x) = 0 si fY (y) = 0, et on remarque que necessairement f(x, y) = fX/Y =y(x)fY (y)p.s. en (x, y). En eet, si fY (y) = 0, alors f(x, y) = 0 p.s. en x vu que f(x, y) 0. La fonction fX/Y =y(x)peut etre vue comme la densite conditionnelle deXsachantY= y. En eet pour toute fonction me-surable bornee on a

R2(x, y)fY (y)fX/Y =y(x) dxdy =E[(X, Y )] = E[E[(X, Y ) [ Y ]]=

RfY (y)E[(X, y) [ Y ]Y =y dydo` u lon deduit

R(x, y)fX/Y =y(x) dy =E[(X, y) [ Y ]Y =ypar identication, ce qui signie bien quefX/Y =y(x) est la densite conditionnelle deXsachantY= y.On peut denirfY/X=x(y), densite conditionnelle deYsachantX = x, de mani`ere analogue.1.3 Theor`emedeRadon-NikodymDenition1.27Soient P et Q deux probabilites denies sur le meme espace (, F).(a)Ondit quePest absolumentcontinueparrapport `aQet onecritP 0 p.s. et quedQ = Z1dP.Exercice1.29(a) Soit U une variable de Bernoulli sous P denie par P[U= 0] = 1p et P[U= 1] = p.Soit Z la variable positive denie par Z = U +(1 U). Montrer que E[Z] = 1. Si on pose dQ = ZdP,montrer que Q[U= 1] = p : sous Q,Uest une variable de Bernoulli de param`etrep.(b) Soit Xune v.a. de loi N (m, 2) sous P et soit Z = exp[h(X m) h22/2]. Si on pose dQ = ZdP,alors sous Q,Xest une v.a. de loi N (m+h2, 2).1.4. VECTEURSGAUSSIENS 131.4 VecteursGaussiensLes variables gaussiennes N (m, 2) ont ete introduites dans lexemple 1.18 Leur generalisation surRnconduit `a la notion de vecteur gaussien :Denition1.30SoitX= (X1, X2, . . . , Xn) un vecteur aleatoire de Rn. On dit queXest un vecteurgaussien si pour tout vecteur deterministeu = (u1, . . . , un), la variable aleatoire(u, X) =ni=1uiXiest une variable gaussienne `a valeurs reelles.Par exemple, si X1, . . . , Xn sont n Gaussiennes independantes, on sait que toute combinaison lineaire desXiest une Gaussienne (par exemple siX1 N (m1, 21), i = 1, 2, et siX1 X2, alorsu1X1 +u2X2 N (u1m1 +u2m2, u2121 +u2222)). Donc (X1, . . . , Xn) est un vecteur gaussien.Maisattention, cetteproprietenestplusvraieengeneral sanslhypoth`esedindependance. Parexemple siX N (0, 1), si est une variable independante deXtelle que P[ = 1] = P[ = 1] = 1/2et si Y= X alors on voit facilement que Y N (0, 1). Cependant, (X, Y ) nest pas un vecteur gaussienpuisqueX + Ynest pas une Gaussienne : on voit immediatement que P[X + Y= 0] = 1/2 et ceci estimpossiblepouruneloigaussiennequiestsoitconcentreeenunseulpoint,soitabsolumentcontinue(et donc non-atomique).La loi dun vecteur gaussien est caracterisee par deux param`etres, comme dans le cas unidimension-nel :Theor`eme1.31Soit X=(X1, . . . , Xn) unvecteur gaussien. Il existeunvecteur Rnet unematrice (n n), symetrique positivetels que la transformee de Fourier deXest donnee parE

ei(u,X)

=exp

i(u, ) tuu/2

.Ce theor`eme generalise lexemple 1.18 o` u lon avait montre que E

eiuX

= e(itmt22/2), soit X= met X=2danscecas. Onferaattentionquemsegeneraliseenunvecteuret enunematrice.Linterpretation de et est la suivante : est le vecteur esperance (E[X1], . . . , E[Xn]) et la matricede covariance :i,j=cov(Xi, Xj) =E[XiXj] E[Xi]E[Xj].Comme pour le cas unidimensionnel, on noteX N (, ). Quand = 0 et = Id, on dit queXestun vecteur gaussien centre reduit. La representation suivante est tr`es utile :Proposition1.32SoitX N (, ). Alors on peut ecrireX = +Yo` uYest un vecteur gaussiencentre reduit.OndeduitdecettepropositionquelaloideXadmetunedensitesietseulementsilamatriceestinversible. La densite est alors donnee parf(x1, . . . , xn) =1(2)n/2det exp12t(x ) 1(x )

o` u lon a ecritx = (x1, . . . , xn). On voit par cette formule que siest une matrice diagonale, alors ladensiteduvecteurgaussienestdonneeparuneformuleproduit, etdonclescomposantesdeXsontindependantes. En particulier, pour un couple gaussien (X, Y ), on aX Y cov(X, Y ) = 0,cequisetraduitparorthogonaliteetindependancesontdesnotions equivalentes.Attention,cettepropriete est enti`erement propre au cadre gaussien.Exercice1.33Soit(X, Y )estunvecteurgaussienbi-dimensionnel. Montrerquil existe tel queX Yest independant deX.14 CHAPITRE1. NOTIONSGENERALESDEPROBABILITESExercice1.34Soit(X, Y )unvecteurgaussiencentrebi-dimensionnel avecE[X2] =E[Y2] =1etE[XY ] = . On poseS = X YetT= X +Y .(a) Montrer que (S, T) est un vecteur gaussien et determiner ses caracteristiques.(b) On poseW= max(X, Y ). ExprimerWen fonction deSetTet en deduire la densite deW, sonesperance et sa variance. Meme question pourZ = min(X, Y ).Exercice1.35Soit XunvecteurgaussiencentrereduitsurRn. Determinerlaloi (appeleeloi duchi-deux `an degres de liberte) deZn = X21 +. . . +X2n.1.5 ConvergencedevariablesaleatoiresOn consid`ere, sur un espace de probabilites xe (, F, P), une suite de variables aleatoires Xn, n 0et lon sinteresse `a la convergence de cette suite. Le caract`ere aleatoire de la suite met en evidence plu-sieurs types de convergence :Convergencepresques ure. Une suite de variables aleatoiresXnconverge p.s. versXsiXn() X() quandn ,pour P presque tout. Cette notion de convergence depend du choix de P mais evidemment, si Q P,alorsXn X P p.s. Xn X Q p.s. Rappelons trois theor`emes fondamentaux :Theor`eme1.36[Theor`emedeconvergencemonotone] Soit Xn, n 0unesuitecroissante(ou decroissante) de variables aleatoires et soitX = limXn p.s. Supposons queXsoit integrable. AlorsE[X] = limE[Xn].Theor`eme1.37[Theor`emedeconvergencedominee] Soit Xn, n 0unesuitedevariablesaleatoiresconvergeantp.s.versX.Supposonsquil existeunevariablealeatoireY integrabletelleque[Xn[ Y , alorsXest integrable et E[[Xn X[] 0 quandn +.Theor`eme1.38[Loi des grands nombres] Soit Xn, n 0 une suite de variables aleatoires equidis-tribuees, independantes, et integrables. Alors1nni=1XiE[X1] p.s.Convergenceenprobabilite. Une suite Xn, n 0 de variables aleatoires converge en probabiliteversXsiP[[Xn X[ ] 0quandn +, pour tout > 0. Il est immediat que la convergence presque s ure implique la conver-gence en probabilite. Reciproquement, on peut montrer avec le lemme de Borel-Cantelli que la conver-gence en probabilite deXnversXimplique quune sous-suite desXnconverge versXp.s.ConvergencedanslesLp.Unesuite Xn, n 0devariablesaleatoiresdansLpconvergeversXdansLpsi|Xn X|p=E[[Xn X[p]1/p0quandn . Remarquons que siXn XdansLp, alors E[Xpn] E[Xp], mais que la reciproque estfausse. Si une suite converge dansLp, alors elle converge en probabilite et en particulier il existe unesous-suite qui converge p.s. Dans le casp = 1, la reciproque est donnee par le theor`eme de convergencedominee. Remarquonsennquelaconvergencedans Lpimpliquelaconvergencedans Lqpourtoutq p.Convergenceenloi.Cestlanotionlaplusfaible, etaussi laplusdelicate. UnesuitedevariablesaleatoiresXnconverge en loi versXsiE[(Xn)] E[(X)]1.5. CONVERGENCEDEVARIABLESALEATOIRES 15quandn, pour toutefonctioncontinuebornee. Onnotecetteconvergence XndX. Laconvergenceenloi estegalementdenieparlaconvergencesimpledesfonctionscaracteristiques, ausenso` uXn(t) X(t)pourtoutt.Enn,si Xestunev.a.defonctionderepartitionFcontinue,et siXnest une suite de v.a. de fonctions de repartitionFntelles queFn(x) converge versF(x) pourtout x, alors Xn converge en loi vers X et reciproquement. La convergence en probabilite (et donc aussila convergence p.s. et la convergence dans lesLp) implique la convergence en loi. Le theor`eme suivant,qui ane la loi des grands nombres, est lun des resultats fondamentaux du calcul des probabilites, quisouligne le role central de la loi gaussienne :Theor`eme1.39[Theor`emeCentral Limite] Soit Xn, n 0unesuitedev.a. equidistribuees,independantes, et de variance nie2. Alorsni=1Xi nE[X1]ndN (0, 1).quandn +.16 CHAPITRE1. NOTIONSGENERALESDEPROBABILITESChapitre2Martingalesettempsdarret2.1 GeneralitessurlesprocessusstochastiquesOncommencepar introduireunenotionmathematiquequi joueunrolecentral entheoriedesmarches nanciers :Denition2.1Soit (, F, P) un espace de probabilite et Ft, t 0 une famille de sous-tribus de F.On dit que Ft, t 0 est une ltration si cest une famille croissante, au sens o` u Fs Ftsis t.Il fautcomprendre Ftcommelinformationautemps t: plusletempscrot(s t), plusonadinformations(Fs Ft).Uneltration Gt, t 0estditeplusgrosseque Ft, t 0si Ft Gtpour toutt 0. Une ltration est dite normale si elle verie deux proprietes supplementaires : Les negligeables au sens large sont dans tous les Ftau sens o` u P[A] = 0A F0. La ltration est continue `a droite au sens o` uFXt=FXt+def=s>tFXs.Si Ft, t 0 est une ltration sur un espace de probabilite (, F, P), on dit que (, F, Ft, t 0, P) est un espace de probabilite ltre.Denition2.2Soit (, F, Ft, t 0, P) est un espace de probabilite ltre. Une famille X = Xt, t 0dev.a.surestappeleeunprocessus stochastique.OnditqueleprocessusXest(Ft)-adaptesi XtestFt-mesurable pour toutt 0.A un processus stochastiqueXon peut associer sa ltration naturelle completee FXt, t 0, deniepar FXt= ((Xs,s t), N ) o` u lon rappelle que Ndesigne la tribu des negligeables pour P. La tribuFXtrepresente linformation portee par Xs,s t, et les negligeables. Evidemment, Xest un processus(FXt)-adapte. On peut montrer que siXa p.s. des trajectoires continues `a droite, pourvues de limites`a gauche (c`adl`ag), en particulier continues, alors la ltration FXt, t 0 est continue `a droite.Denition2.3OnditquedeuxprocessusXet Y sontegaux`amodicationpr`essi P[Xt=Yt] = 1pour toutt.Remarquons que si deux processus continus `a droite sont egaux `a modication pr`es, alorsP[Xt = Yt, t 0] = 1.En eet, comme Q est denombrable et que lintersection dune famille denombrable devenements cer-tains est un evenement certain, on voit facilement queP[Xt = Yt, t Q] = 1siXetYsont egaux `a modication pr`es. De plus, comme Q est dense dans R etXetYsont continus`a droite, les trajectoires deXetYsont uniquement determinees par leurs valeurs sur Q puisqueXt = limtnQtXtnpour toutt 0. On a donc P[Xt = Yt, t 0] = 1.1718 CHAPITRE2. MARTINGALESETTEMPSDARRETDenition2.4OnditquedeuxprocessusXet Y sontegauxenloietonecrit Xd=Y sipourtoutn N et pour tout (t1, t2, . . . , tn) on aXt1, Xt2, . . . , Xtnd=Yt1, Yt2, . . . , Ytn .On dit aussi queXetYsont des versions lun de lautre.On remarque immediatement que siXetYsont continus `a droite et modication lun de lautre, alorsilssontegauxenloi. Attention, lareciproqueestfausse: eneet, si Xestsymetriqueausenso` uXd= X, alorsXet Xsont des versions lun de lautre mais evidemment P[Xt = Xt, t 0] = 1si et seulement siX 0.Proprietes fonctionnelles. (a) Un processus X est croissant si p.s. t Xt est une fonction croissante,cest-`a-diresi Xt() Xs()pourtoutt s, p.s. Dememe, ondiraquunprocessusestcontinu`adroite, continu, derivable, de classe (2... etc si la fonction t Xt() verie p.s. la propriete consideree.(b) Un processusXest dit `a variation nie (V.F.) sur [0, t] sisup0t0 0, Xt> a ,appele premier temps de passage au seuil a, est un (Ft)-temps darret. En eet, pour toutt > 0, on alidenticationT> t =Xs a, s t =sQ+tXs a ,la deuxi`eme egalite provenant de lhypoth`ese cruciale de continuite `a droite de X (qui est alors enti`erementdetermineparsesevaluationssurlesrationnels). CommeXest(Ft)-adapteetparstabilitedestri-bus par intersection denombrable, on voit que levenement de droite est dansFt. Remarquons que siXestcontinu, onadeplusTa= inf t > 0, Xt = aetXTa()()=a. OnmontredememequeTa = inf t > 0, Xt< a est un temps darret pour touta < 0. Dune mani`ere generale, on peut mon-trerquesi Xestunprocessusc`adetadapte`avaleursdans Rdetsi AestunBoreliende Rd, alorsTA= inf t > 0, Xt A (premier temps datteinte deA) est un temps darret. Cette demonstrationrepose cependant sur des outils mathematiques de haute distinction - voir par exemple la bibliographiede [1]. On prendra garde quen general, le dernier temps de passage enA : LA = sup t > 0, Xt Anest pas un temps darret, meme dans les situations les plus simples.Denition2.11Soit (, F, Ft, t 0, P) un espace de probabilite ltre etun temps darret relati-vement `a (Ft). On appelle ltration arretee enla-alg`ebreF=A F [ A t Ft t R+.Pour biencomprendrelinteret decettenotion, remarquons que est toujours F-mesurable: lesBoreliens de R+etant engendres par les intervalles du type ] , u], il sut de montrer que u F. Mais cest evident car u t = t u Ftu Ft. De meme, on montre laProposition2.12SiSetTsont des temps darret tels que p.s.S T, alorsFS FT.20 CHAPITRE2. MARTINGALESETTEMPSDARRETPreuve : Soit A FS. Montrons que A FT. Pour tout t 0 on a AT t = AS tT tpuisque S T. Dune part T t Ft puisque Test un temps darret, dautre part AS t FtpuisqueA FS. DoncA S t T t Ftpour toutt 0, ce qui est la propriete recherchee.

Uneproprieteimportante, mais plus dicile`ademontrer - voir [17] ou[24], est lasuivante: soitX: R+ Runprocessus et T untemps darret. Rappelons quelav.a. XTest denieparXT() = X(T(), ). On a laProposition2.13Si le processusXest c`ad et adapte, alors la v.a.XT11{T 0, lensemble du processus Xt, t T est compl`etement determine par la valeur terminaleXTau sens o` uXt=E[XT [ Ft] pour toutt T.Denition2.15Soit Xt, t 0une(Ft)-martingale.OnditquecestunemartingalefermeesiilexisteZ L1() tel queXt=E[Z [ Ft]pour tout t 0. Autrement dit, lensembleduprocessus est determinepar unevaleur terminale`alhorizon inni.On verra plus tard queZest en fait la limite deXt quandt +. Le theor`eme suivant caracterise lesmartingales fermees par leur uniforme integrabilite :Theor`eme2.16Soit Xt, t 0 uneFt-martingale. Cest une martingale fermee si et seulement sila famille de v.a. Xt, t 0 est U.I.Onremarque que dans ce theor`eme, linclusion(Xt, t 0 fermee Xt, t 0 U.I.) est uneconsequence immediate de lexercice 1.26 (b). Linclusion reciproque est plus delicate, voir [24].Denition2.17Soit (, F, Ft, t 0, P) unespacedeprobabiliteltreet X= Xt, t 0unprocessus (Ft)-adapte tel que E[[Xt[] < + pour toutt 0. On dit queXest une (Ft)-sousmartingale(resp. (Ft)-surmartingale) si E[Xt [ Fs] Xs(resp. E[Xt [ Fs] Xs) pour touts t.Par analogie, on dira quune (Ft)-sousmartingale (resp. une (Ft)-surmartingale) est fermee sil existeune v.a. ZF-mesurable telle que E[Z [ Ft] Xt(resp. E[Z [ Ft] Xt) pour toutt 0. Il decoulefacilement des denitions quune martingale est un processus `a esperance constante : E[Xt] = E[Xs] nedepend pas det. Une martingale modelise ainsi un jeu equitable. Une sous-martingale est un processus`aesperancecroissante(jeufavorable), unesurmartingaleunprocessus`aesperancedecroissante(jeudefavorable). La mani`ere la plus simple de construire une sous-martingale et dajouter `a une martingaledonnee une fonction croissante deterministe. Le theor`eme suivant, tr`es cel`ebre, dit que la reciproque estpresque vraie (la fonction croissante est remplacee par un processus aleatoire croissant) :2.3. MARTINGALES 21Theor`eme2.18[DecompositiondeDoob-Meyer] SoitXune sous-martingale relativement `a Fttellequelafamille XT, T (Ft)-temps darret borneestUI.Il existeune(Ft)-martingaleMetunprocessus croissant (Ft)-adapteA tel queXt=Mt+Atpour toutt 0. De plus,MetA sont uniques `a constante additive pr`es.Par linegalite de Jenssen, on voit immediatement que siXest une (Ft)-martingale, alors le processustX2test une(Ft)-sous-martingale. Sous reservedUI, ladecompositiondeDoob-Meyer assurelexistence dun unique processus croissant A tel que t X2t At soit une (Ft)-martingale (on peut enfait se passer de la condition dUI). On appelle A le crochet de la martingale Xet on utilise la notationAt=< X>tpour tout t 0. Nous reviendrons sur le crochet des martingales au chapitre 4, o` u il jouera un role tr`esimportant en calcul stochastique.SiTest un temps darret etMune (Ft)-martingale, le processusZdeni parZt =MtTest une(Ft) martingale et E[MtT] = E[M0].On enoncemaintenant,sanslesdemontrer,uneseriederesultatsfondamentauxdelatheoriedesmartingales, essentiellement d us `a J. L. Doob dans les annees cinquante.Theor`eme2.19[Inegalitemaximale] Soit Xunesurmartingalereellecontinue. Alorspourtoutt, > 0,P[supst[Xs[ ] 3 supstE[[Xs[].Linteret de cette inegalite est de donner une vitesse de convergence (en 1/) de la quantite P[supst[Xs[ ] vers 0 quand +. En fait, cette vitesse peut etre amelioree quandXest une martingale ayantdes moments dordre superieur grace auTheor`eme2.20[Inegalites dans Lp] Soit p1et XunemartingalereellecontinuetellequeXt Lppour toutt 0. Alors pour toutt 0E[supst[Xs[p] qpE[[Xt[p]o` uqest le nombre conjugue dep : 1/p + 1/q = 1.Par linegalite de Markov, on deduit de ce theor`eme que siXt Lppour toutt 0, alorsP[supst[Xs[ ] =P[supst[Xs[p p] qppE[[Xt[p].Do` u une meilleure vitesse de convergence, en 1/p.Remarque2.21Pourappliquercetheor`emeil nesutpasqueXt Lppourunseul t 0, etlaconditionXt Lppour toutt 0 est necessaire. En eet, il existe des martingales telles queX1 LpetX2 Lppourunp>1:prenonsparexempleXunev.a.quisoitdansL1maispasdansL2,etconsiderons une ltration Ft, t 0 qui soit triviale pour 0 t 1 et egale `a(X) pourt 2. Lamartingalet Xt = E[X [ Ft] est telle queX1 = cste L2etX2 L2.Theor`eme2.22[Theor`emedeconvergencedesmartingales]Soit Xunemartingalecontinue.Les assertions suivantes sont equivalentes :(a)Xest une martingale fermee parX.(b)Xconverge p.s. et dansL1versX.(c)Xest uniformement integrable.Onprendragarde, danscetheor`eme, quelalimitedeXtestunevariablealeatoireX. Deplus, ilexiste des martingales qui ne sont pas uniformement integrables, autrement dit qui ne convergent pas.Unexempletypiquedemartingalenonconvergenteestlemouvementbrownien,quenousverronsauchapitre suivant. Le theor`eme suivant est le plus important de cette serie pour la nance :22 CHAPITRE2. MARTINGALESETTEMPSDARRETTheor`eme2.23[Theor`eme darret] Soit M une (Ft)-martingale continue et S, Tdeux temps darrettels que S Tp.s. Supposons que Msoit uniformement integrable ou que les temps darret soient bornespar une constante nie deterministeK. AlorsMTest une v. a. integrable etE[MT[FS] =MS.Quandlesdeuxtempsdarretnesontpasbornes, luniformeintegrabilitedelamartingaleestunecondition essentielle, comme nous le verrons au chapitre suivant avec le mouvement brownien. Quandla martingale nest pas UI, une technique standard consiste `a utiliser les temps darretS n etT nqui sont bornes parn,etfairetendren vers +. QuandlamartingaleestUI,nousavons vuquelleetait fermee parM. Le theor`eme darret reste alors valable avec des valeurs innies pourT, au senso` uE[M[FS] =MS.La caracterisation des martingales donnee par la proposition suivante est quelquefois utile :Proposition2.24Soit Xunprocessus(Ft)-adapteet integrabletel queE[X] =E[X0] pourtouttemps darret borne. Alors le processusXest une martingale.On prendra garde que la condition E[Xt] = E[X0] pour toutt 0 nest pas susante pour queXsoitune martingale. Un contre-exemple typique est le processusXt= t0Mudu, o` uMest une martingaledesperance nulle :Xest un processus desperance constante (nulle), mais nest pas une martingale. Laproposition suivante montre enn que les trajectoires dune martingale continue non constante sont tr`esirreguli`eres :Proposition2.25Si unemartingaleMcontinueest unprocessus`avariationsnies, alorselleestconstante :Mt = M0p.s. pour toutt 0.Chapitre3Lemouvementbrownien3.1 UnpeudhistoireAvant detre un objet mathematique rigoureux, le mouvement brownien a ete etudie en Botanique,en Finance, et en Physique. Le botaniste R. Brown observe dabord vers 1828 le mouvement irregulier departicules de pollen en suspension dans leau. En 1877, Delsaux explique les changements incessants dedirection de trajectoire par les chocs entre les particules de pollen et les molecules deau. Un mouvementde ce type est alors appele mouvement au hasard. En 1900, L. Bachelier, en vue detudier les cours dela Bourse de Paris dans sa th`ese, met en evidence le caract`ere markovien du mouvement brownien : laposition dune particule `a linstant t+s depend de sa position en t, et ne depend pas de sa position avantt. Peu apr`es, vers 1905, A. Einstein determine la densite de transition du Brownien par lintermediairede lequation de la chaleur. La meme annee, Smoluchowski decrit le mouvement brownien comme unelimite de promenades aleatoires. La premi`ere etude mathematique rigoureuse du Brownien est faite parN. Wiener (1923), qui construit une mesure de probabilites sur lespace des fonctions continues souslaquelle le processus canonique est un mouvement Brownien. Des recherches dune inuence considerableontensuiteetemeneesparP. Levy(1948), lequel sestinteresseauxproprietesnesdestrajectoiresdu Brownien. Ces objets ont ete developpes par les potentialistes americains `a la suite de J. L. Doob,puis systematises par les specialistes de la Theorie Generale des Processus de lecole de Strasbourg,autour de P.-A. Meyer.3.2 Denitions,constructions,etpremi`eresproprietesDenition3.1SoitX = Xt, t 0 un processus issu de 0 et `a valeurs dans R. On dit queXest unmouvement brownien sil verie lune des deux conditions suivantes (equivalentes) :(a)Xest un processus gaussien centre et de fonction de covariance E[XsXt] = s t.(b)Xest un processus `a accroissements independants et stationnaires tel queXt N (0, t) pour toutt 0.OnmontrequeleMBest`atrajectoirescontinues.Precisonsquelaproprietedindependancedesaccroissementssigniequepourtouts t, lavariableXt Xsestindependantede Xu, u s,tribu du passe avants. La propriete de stationnarite des accroissements signie simplement que la loideXt Xsnedependquedet s: pourt s, Xt Xsd=Xts. Lesprocessus`aaccroissementsindependants et stationnaires (P.A.I.S) portent aussi le nom de processus de Levy. Leur structure a etecaracterisee dans les annees trente successivement par De Finetti, Khintchine et Levy. Nous reviendronsplusloinsurcesprocessustr`esimportantsquutilisentdeplusenpluslesnanciersmathematiciens.Contentons-nous pour linstant de renvoyer aux deux monographes de reference [1], [21] ou encore [20]pour de plus amples informations.Comme nous le disions plus haut, la preuve rigoureuse de lexistence du mouvement brownien reposesur la construction dune mesure de probabilites sur lespace des trajectoires, la mesure de Wiener. Plusprecisement,onprendcommeespacedeprobabilitessous-jacentlespace = ((R+, R)desfonctionscontinuesdeR+dansR, onnoteXt()=(t)pourtoutt 0leprocessuscanonique(ici, est une fonction), FXt= Xs, s t la ltration canonique etF= F. La mesure de Wiener est2324 CHAPITRE3. LEMOUVEMENTBROWNIENune probabilite sur (, F, FXt) sous laquelleXest un mouvement brownien au sens de la denitionprecedente. Nousrenvoyonsparexemple`a[11] pourlaconstructiondecettemesure. Signalonsaupassage que la construction de Wiener a donne naissance `a une axiomatique plus generale, laxiomatiquede Kolmogorov (1933), laquelle permet de construire une classe beaucoup plus large de processus. Dansla suite, le mouvement brownien sera souvent note B (comme Brownien) ou W(comme Wiener). Quandil sera necessaire de considerer la mesure de probabilites sur lespace des trajectoires, nous utiliseronsplutotlanotationXduprocessuscanonique.OnpeutaussiconstruireplussimplementleBrowniencomme limite de promenades aleatoires renormalisees :-601 212nSnCette propriete est notamment exploitee pour les simulations. Soit Xune v.a. de Bernoulli, i. e. P[X =1] = P[X = 1] = 1/2 et soit Xn, n 0 une suite de v.a. independantes et equidistribuees de memeloi queX. On consid`ereSn = X1 +. . . +Xn la marche aleatoire symetrique simple. On voit facilementque E[Sn] = 0 et Var [Sn] = n. On proc`ede ensuite `a une double renormalisation en temps et en espaceenxantNetenconsiderantUk/N=Sk/Npourk=0, . . . , N.RemarquonsqueUk/Nestindexepar 0, 1/N, . . . , 1, que E[Uk/N] = 0 et que Var[Uk/N] = k/N. On denit ensuite un processus `a tempscontinu UNt, t [0, 1] `a partir deUk/Nen imposant `a la fonctiont UNtdetre ane entrek/Netk + 1/N:-60N1N1/22N1/2ggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggggtUNtPourt = 1 on aUN1=SN NE[X1]

NVar[X1],de sorte que par le Theor`eme Central Limite, UN1N (0, 1) en loi. De meme, on voit que UNtN (0, t)en loi pour tout t [0, 1]. On peut alors montrer alors que toute la trajectoire du processus UNconvergeen loi vers celle du mouvement brownienB. Cette convergence en loi de processus porte aussi le nomde principedinvariancedeDonsker, et utilise de facon cruciale la notion de tension dune famille delois de probabilites. Nous renvoyons par exemple `a [10] pour plus de details sur ces deux notions.Etablissonsmaintenantlequivalenceentrelespoints(a)et(b)dansladenitionduBrownien:supposons dabord que (a) soit vraie et xonsr s < t. On aE[Xr(Xt Xs)] = E[XrXt] E[XrXs] = r t r s = r r = 0.3.2. DEFINITIONS,CONSTRUCTIONS,ETPREMI`ERESPROPRIETES 250 1 2 3 4 510505Fig. 3.1 Trajectoires BrowniennesDonc H = VectXr, r s est orthogonal `a XtXs dans L2. Mais comme X est un processus gaussienparhypoth`ese,cecientraneque(H) = Xr, r sestindependantedeXt Xs,etdoncqueXest `a accroissements independants. Enn, on sait que XtXs est une gaussienne centree, et quil sutdonc de calculer sa variance pour determiner sa loi. OrVar(Xt Xs) = E[(Xt Xs)2] = E[X2t ] 2E[XsXt] +E[X2t ] = t 2s +s = t s,do` uXt Xs N (0, t s), cequi montre(b). Reciproquement, supposonsque(b)aitlieu. Soienta1, . . . , an R et 0 = t0 t1< . . . < tn. On peut redecomposerni=1aiXti =ni=1(ai +. . . +an)(Xti Xti1)et onvoit queletermededroiteest unesommedegaussiennes independantes (par independancedes accroissements), donc une gaussienne. Ceci entrane queXest un processus gaussien, et lon voitimmediatement quil est centre. Pour calculer sa covariance, on ecrit pour touts tE[XsXt] = E[Xs(Xs +Xt Xs)] = E[X2s] +E[Xs(Xt Xs)] = s + 0 = s = s t.

Exercice3.2*Soit Wunmouvementbrownienet0 r 0, Ws> 0] et P[Wr> 0, Ws> 0, Wt> 0].Exercice3.3(a)SoitXunprocessus`aaccroissementsindependants.Montrerquesi E[[Xt[]< +(resp. E[[Xt[2] 1/2 quandt +.Ainsi, une bonne image deterministe de la courbe brownienne, aussi bien localement que globalement,sont les fonctionst t ett t. Ceci etait dailleurs dej`a suggere par la propriete de Scaling vueprecedemment. Le theor`eme suivant sera utilise dans la construction de lintegrale stochastique. Il metune nouvelle fois en evidence le caract`ere quadratique de la courbe brownienne :28 CHAPITRE3. LEMOUVEMENTBROWNIENTheor`eme3.9Fixonst > 0 et posonstj = jt/2npour toutn N etj = 0, . . . , 2n. AlorsZnt=2nj=1[Btj Btj1[2tquandn , p.s. et dansL2.Preuve : Remarquons dej`a que E[Znt ] = t. Pour la convergence dans L2il faut montrer que E[[Znt t[2] 0, soit Var[Znt ] 0 ce qui se deduit deVar[Znt ] =2nj=1Var[Btj Btj1]2=2nj=12(t/2n)2=21nt2,o` u la deuxi`eme egalite vient de ce que si X N (0, 2), alors Var X2= 24. On en deduit dautre partqueE n=1[Znt t[2=tn=12n 0, Wt = a designe le tempsdatteinte duBrownien au seuil a> 0,alorspour toutM> 0, Taa et comme P[SM>a] 1 quandM +, on voit que p.s.Ta< +, autrement ditTaest un temps darret ni (attention,Tanest pas un temps darret borne :en eet E(Ta) = ). Le theor`eme suivant, utilise en Finance pour evaluer les options barri`eres, precisela loi jointe du couple de v.a. (Wt, St) :Theor`eme3.13[Theor`emedeDesireAndre] Pour toutt, x 0 et pour touty xP[St x, Wt y] =P[Wt 2x y].Preuve : On ecrit dabordP[St x, Wt y] =P[Tx t, Wt y] =P[Tx t, WtTx+Tx WTx y WTx].Dunepart WTx=x- par continuitede W, dautrepart Wxs=Ws+Tx WTxest unBrownienindependant de FTx(donc deTx). On en deduit queP[St x, Wt y] =P[Tx t, WxtTx y x] =P[Tx t, WxtTx x y]o` u la deuxi`eme egalite vient de la symetrie du processusWxsachantTx. MaisP[Tx t, WxtTx x y] =P[Tx t, Wt x x y] =P[Wt 2x y]o` u la deuxi`eme egalite vient de linclusion Wt 2x y Tx t , laquelle decoule immediatementde ce que 2x y x.

En derivant par rapport `ax puisy, on obtient la densite jointe du couple de v.a. (St, Wt) :f(St,Wt)(x, y) =2(2x y)2t3e(2xy)2/2t11{xy,x0}pour tout t 0. On peut aussi calculer la loi de St, soit en integrant lexpression precedente par rapport`ay, soit en ecrivant pour toutx 0P[St x] = P[St x, Wt x] +P[St x, Wt x]= P[Wt x] +P[Wt 2x x]= 2P[Wt x] =P[[Wt[ x]30 CHAPITRE3. LEMOUVEMENTBROWNIENo` uladeuxi`emeegaliteestuneconsequencedutheor`emedeDesireAndreetladerni`erevientdelasymetrie du Brownien. Par egalite des fonctions de repartition on en deduit alors queStd=[Wt[pour toutt 0. Ceci permet de calculer simplement la loi deTapoura > 0 :P[Ta t] =P[St a] =P[[Wt[ a] =P[W2t a2] =P[tW21 a2] =P[a2W21 t]de sorte que par egalite des fonctions de repartition,Tad=a2W21.On calcule alors directement la densitefTa(t) =a2t3ea2/2t11{t0}.On peut egalement montrer queTheor`eme3.14Les processus St Wt, t 0 et [Wt[, t 0 ont meme loi.La force de ce theor`eme vient de ce quil sagit dune egalite en loi entre processus, qui est bien plusforte que legalite en loi entre v.a. Par exemple on a vu que Std= [Wt[ pour tout t 0 mais les processusSet [W[ nont pas la meme loi, puisque [W[ nest pas croissant. En revanche, ce theor`eme entrane lefait curieux que les v.a.StetSt Wtont meme loi.Nous souhaitons maintenant retrouver la densite de Ta par une autre methode, tr`es instructive, reposantsur le theor`eme darret. Soita> 0. CommeTa n est un temps darret borne et quet eWt2t/2est une martingale pour tout 0, ce theor`eme entrane queE[eWTan2(Tan)/2] =E[eW02.0/2] =1.On fait tendren + :Ta n Taet comme p.s.Ta< +,WTan WTa= a. De plus, commea, 0 et par denition deTa, pour toutn 0eWTan2(Tan)/2eWTaneaet eaestconstantenie, doncunev.a. integrable. Onpeutappliquerletheor`emedeconvergencedominee, qui donne1 =E[eWTan2(Tan)/2] E[ea2Ta]quandn +, de sorte queE[exp Ta] =ea2pour tout 0. Par inversion de la transformee de Laplace, on obtient alors la densite deTadonneeprecedemment.Remarque3.15Poura < 0, on peut remarquer queTa = inft 0; Bt = a = inft 0; Wt = a,avecW= B. Il serait faux de conclure queE(exp Ta) = exp(a2) pour touta car, poura < 0et > 0, le membre de gauche est plus petit que 1 et celui de droite serait plus grand que 1. Il convientdonc detre vigilant en appliquant le theor`eme darret de Doob.On peut egalement sinteresser au premier temps de passage bilat`ere : Ta = inft 0, [Bt[ =a poura> 0, et au processus supremum bilat`ere associeSt= supst[Ws[. Avec des methodes analogues, onmontre queE[e

Ta] =1/ cosh a2pourtout 0. LinversiondecettetransformationdeLaplacedonnecependantunedensitepluscompliquee obtenue sous forme de developpement en serie, voir [11].3.4. EQUATIONDELACHALEUR 310 1 2 3 4 5051015Fig. 3.2 Mouvement Brownien avec driftExercice3.16(a) Calculer la transformee de Laplace et la densite deTapoura < 0.(b) Montrer que E[Ta] = + pour touta = 0.(c)* Soita < 0 < b. Montrer que P[Ta< Tb] = b/(b a) et, si on poseT= Ta Tb, queE[eT11{T=Ta}] =sinh b2sinh(b a)2et E[eT] =cosh(a +b)

/2cosh(b a)

/2Terminons cette section en evoquant le mouvement brownien drifte :W= Wt= Wt +t, t 0pour tout R. Le processusWest une sous-martingale si > 0 et une surmartingale si < 0. LavariableWtest une Gaussienne desperancet et de variancet. Un certain nombre de proprietes duBrownien se transmettent au Brownien drifte : propriete de Markov, theor`emes darret... mais attentionpastoutes: parexemple, Wnestinvariantparscalingquepour =0. NousreviendronssurleBrownien drifte vers la n de ce cours, dans le cadre du theor`eme de Girsanov.Exercice3.17Soit Wunmouvementbrownien. Onconsid`erelesprocessus t [Wt[, t eWtett

t0Wsds.(a) Calculer leur esperance et leur variance.(b) Lesquels sont des processus gaussiens ? Des processus de Markov ?3.4 EquationdelachaleurCettesectionpeutetreomiseenpremi`erelecture. Soit g(t, x) ladensitegaussiennecentreedevariancet. On noteq(t, x, y) =12te(yx)2/2t=g(t, x y)32 CHAPITRE3. LEMOUVEMENTBROWNIENladensitedetransitiondumouvementbrownien. Cestdefaconheuristique, laprobabilitepourqueleBrowniensoitenysachantque t instantsauparavant, il setrouvaitenx. Parstationnaritedesaccroissements du Brownien, cest aussi la densite conditionnelleP[Bt+s dy [ Bs = x] =q(t, x, y) dy.La densite de transitionq verie les equations forward et backwardqt(t, x, y) =122qy2(t, x, y) =122qx2(t, x, y).Si, pour une fonction mesurable borneef, on consid`ere la fonctionuf(t, x) = E[f(Bt +x)] =

f(x +y)g(t, y)dy =

f(y)q(t, x, y)dy ,on deduit de lequation forward et du theor`eme de derivation sous lintegrale queufverie lequationaux derivees partielles

uf(0, x) = f(x)122ufx2=uftCette equation porte le nom dequation de la chaleur (ufrepresente levolution de la temperature dansun corps homog`ene, avec conditions initiales donnees parf). De plus, en derivant sous lintegrale, on a2ufx2(t, x) =

Rf

(x +y)g(t, y) dy =uf (t, x) =E[f

(Bt +x)].On peut ainsi ecrireE[f(Bt +x)] f(x) = uf(t, x) uf(0, x) =

t0uft(s, x) ds =12

t02ufx2(s, x) ds,do` uE[f(Bt +x)] =f(x) +12

t0E[f

(Bs +x)] ds.Une formule liant les processusf(Bt + x) etf

(Bt + x) sera donne dans le prochain chapitre (lemmedIto). On peut egalement considerer des fonctions temps-espace :Proposition3.18Soitf: R+R R une fonction de classeC1ben temps etC2ben espace etBunBrownien. AlorsE[f(t, x +Bt)] =f(0, x) +

t0Ef

t(s, x +Bs) + 12f

xx(s, x +Bs)

ds.Preuve: On poseuf(t, x) = E[f(t, x + Bt)]. En utilisant le theor`eme de derivation des fonctions com-posees et lequation de la chaleur, on en deduit quedufdt(t, x) =Ef

t(t, x +Bt) + 12f

xx(t, x +Bt)

.En integrant par rapport `at, on trouveuf(t, x) uf(0, x) =

t0Ef

t(s, x +Bs) + 12f

xx(s, x +Bs)

ds.

On denit maintenant le generateurLdu processus espace-temps (t, Bt) comme loperateur agissantsur les fonctions de classe C1ben temps et C2ben espace :L(f)(t, x) =tf(t, x) +12xxf(t, x).Le theor`eme suivant est tr`es utile en Finance :3.5. MOUVEMENTBROWNIENMULTIDIMENSIONNEL 33Theor`eme3.19SoitudeclasseC1bentempsetC2benespacetellequeLu 0.Alorsleprocessust u(t, Bt) est une martingale.Preuve : On utilise `a nouveau lindependance des accroissements du Brownien :E[u(t, Bt)[Fs] =E[u(s +t s, x +Bts)]x=Bs=E[us,x(t s, Bts)]x=Bso` u lon a noteus,x(t, y) = u(s +t, x +y). Par la proposition precedente, on a doncE[us,x(t s, Bts)] =us,x(0, 0) +

t0E[Lus,x(w, Bw)]dwComme Lus,x 0 par hypoth`ese, il en resulte queE[u(t, Bt)[Fs] =us,x(0, 0)x=Bs=u(s, Bs).

3.5 MouvementbrownienmultidimensionnelSoit Bt = (B1t, B2t, . . . , Bnt ), t 0unprocessusn-dimensionnel.OnditqueBestunBrownienmultidimensionnel si lesprocessus Bi,i nsontdesBrowniensreelsindependants. Bestaussi unprocessus `a accroissements independants et stationnaires et un processus gaussien de fonction de cova-rianceE[(Bt, Bs)] =n(s t)(o` u(, )designeleproduitscalairedansRn). OnaegalementunecaracterisationdetypeLevy: unprocessus n-dimensionnel Bestunmouvementbrowniensi etseulementsi touslesprocessus Biet(BitBjt i,jt, t 0) sont des martingales (avec la notation de Kronecker i,j = 0 pour i = j et i,i = 1).Pour tous a1, . . . , an, il est facile de verier en calculant son esperance et sa covariance que le processusWdeni parWt=1

a21 +. . . +a2n(a1B1t+. . . +anBnt )est unBrownienreel. Ondiraquedeuxmouvements Browniens reels B1et B2sont correles aveccoecient de correlation si le processust B1tB2t t est une martingale. On decorr`ele alorsB1etB2en introduisant le processusB3t=1

1 2(B2t B1t).Ce processus est une martingale et en ecrivant(B3t)2t =11 2((B2t)2+2(B1t)22B2tB1t t(1 2))=11 2[(B2(t))2t +2[(B1(t))2t] 2[B2(t)B1(t) t],on montre que (B3t)2t est une martingale, de sorte queB3est un MB. On peut montrer queB3estindependant deB2, de sorte que le produitB2B3est une martingale.34 CHAPITRE3. LEMOUVEMENTBROWNIENChapitre4Lintegralestochastique-FormuledItoDans ce chapitre on cherche `a denir des variables aleatoires du typeY1() =

10XsdBs

() (4.1)o` u Xt, t 0 est un certain processus et Bt, t 0 un mouvement brownien. Le probl`eme est biens urdedonnerunsens`alelementdierentiel dBspuisquelafonctions Bsnestpasderivable.Unobjetmathematiqueadequat, introduitparK. Itoen1942, estlintegralestochastique, laquellepermetdeconstruireY1()commeunelimitedev.a, souslhypoth`ese- cruciale- dadaptationduprocessusX`alaltrationduBrownienporteur.Latheorieplusrecenteducalcul anticipatifpermetdelevercettehypoth`esedadaptationdanscertainscas, cequi estduninteretevidentenFinance,mais nous naborderons pas ce sujet ici. Dans la pratique on sinteresse souvent `a des quantites du typeF(Y1()) o` u Fest une fonction reelle. Quand Fest susamment reguli`ere, le Lemme dIto permet alorsdexprimer F(Y1()) au moyen dintegrales stochastiques, ce qui est par exemple une etape importantedans le calcul des esperances. Cette methodologie sapplique aux integrales t0XsdBs et lon peut ainsiconsid`erer le processus

t0XsdBs, t 0qui est, sous conditions dintegrabilite de Xune martingale. Le processus F(Yt) est alors decompose enune martingale et un processus `a variation nies.4.1 LintegraledeWienerDanscettesection, lesfonctionsetprocessusseront`avaleursreelles, lesdenitionsetresultatssegeneralisantsansdiculteaucas Rd.LintegraledeWienerestsimplementuneintegraledutype(4.1) avecXfonction deterministe, i.e. ne dependant pas de. On xe un horizonT> 0 deterministe(eventuellementT= +) et on noteL2([0, T], R) =

f: [0, T] R /

T0[f(s)[2ds < .Remarquons quesi T =

T0f(s)g(s) ds,L2([0, T], R) est un espace de Hilbert, au sens o` u toute suite de L2([0, T], R) qui soit de Cauchy pour lanorme[[f[[2,T= < f, f>=

T0f2(s) ds

1/23536 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITOconvergeversunelementuniquedeL2([0, T], R). LaproprietefondamentaledesespacesdeHilbertest lexistence dune base orthonormee denombrable : il existe un syst`eme de fonctions fn, n 0 deL2([0, T], R)telque= 0si n =pet= 1si n =p,ettelquetout elementfdeL2([0, T], R) secrive de mani`ere unique sous la formef =n1anfnpour des coecients an quon appelle les coordonnees de fdans la base fn, n 0. Dans le cas precisdeL2([0, T], R), la base fn, n 0 peut etre constituee de fonctions en escalier :fn(t) =pni=1i11]t(n)i,t(n)i+1](t) (4.2)o` u pn N, les i sont reels et

t(n)i une suite croissante de [0, T]. On en deduit alors le lemme suivant :Lemme4.1[Lemmehilbertien]Soit f L2([0, T], R).Il existeunesuitedefonctionsenescalierfn telle que[[f fn[[2,T0quandn +.4.1.1 LecasdesfonctionsenescalierSifnest la fonction donnee par (4.2), que lon note simplementfn(t) = pni=1i11]ti,ti+1](t) il esttr`es facile de denir son integrale de Wiener par :IT(fn) =

T0fn(s)dBs=pni=1i

Bti+1 Bti)Remarquonsqueparlecaract`eregaussienduBrownienetlindependancedesesaccroissements, lavariable aleatoireIT(fn) est une variable gaussienne desperance nulle et de varianceVar [IT(fn)] =pni=12iVar

Bti+1 Bti

=pni=12i(ti+1 ti) =

T0f2n(s) ds.De plus, on remarque que f IT(f) est une fonction lineaire au sens o` u IT(af +bg)=aIT(f)+bIT(g)pour toutes fonctionsf, gen escalier et tousa, b R. Enn, si fetgsont deux fonctions en escalier,on aE[IT(f)IT(g)] =12 (Var [IT(f) +I(g)] Var [IT(f)] + Var [IT(g)])=12

T0(f +g)2(s)ds

T0f2(s)ds

T0g2(s)ds

=

T0f(s)g(s)ds.Cette derni`ere egalitest tr`es importante et signie que lapplicationf IT(f)est une isometrie de L2([0, T], R) dans L2(, P). On parle alors de la propriete disometrie de lintegralede Wiener, ce qui signie'IT(f), IT(g)`L2() = 'f, g`L2(R).4.1. LINTEGRALEDEWIENER 374.1.2 LecasgeneralPour construire IT(f) quand fest un element quelconque de L2([0, T], R), on utilise lisometrie miseen place et le lemme suivant :Lemme4.2[Lemme gaussien] SoitXn, n 0 une suite de variables gaussiennes N (n, n)convergeant vers une v.a.XdansL2(soit telle queE

[X Xn[2

0quandn +. Alors,n etn quandn + etX N (, ).Soit maintenant f L2([0, T], R) et soit, dapr`es le Lemme 4.1, fn, n 0 une suite de fonctions enescalier telle que [[f fn[[2,T 0 quandn +. Dapr`es le paragraphe precedent on peut construireles integrales de WienerIT(fn) qui sont des gaussiennes centrees qui, par isometrie forment une suitede Cauchy. LespaceL2etant complet, cette suite converge vers une v.a. gausienne noteeIT(f). Par leLemme 4.2, IT(f) N (0, [[f[[22,T). Il reste `a verier que la limite Yne depend que de f et non pas de lasuite fn choisie. En particulier IT(f) nest jamais une variable p.s. positive, meme quand felle-memeest toujours positive. De plus, lapplicationf IT(f) est lineaire et isometrique deL2([0, T], R) dansL2(), au sens o` uIT(af +bg) = aIT(f) +bIT(g) etE[IT(f)IT(g)] =

T0f(s)g(s)dspour tous a, b R et f, g L2([0, T], R). Enn, IT(f) est une variable gaussienne mesurable par rapport`a Bt, 0 t T qui verie pour toutt [0, T]E[IT(f)Bt] = E

T0f(s)dBs

T011[0,t](s) dBs=

T0f(s)11[0,t](s)ds =

t0f(s)ds,o` uladeuxi`emeegaliteprovientdelaformuledisometrie. Parproprietedespacegaussien, cettefor-mule caracterise lintegrale stochastique :IT(f) est lunique v.a.Zgaussienne mesurable par rapport `a Bt, 0 t T telle queE[ZBt] =

t0f(s)dspour toutt [0, T].4.1.3 LintegraledeWienervuecommeprocessusgaussienOn noteL2loc(R+, R) la reunion desL2([0, T], R) pourT> 0 et on consid`eref L2loc(R+, R). Par leparagraphe precedent, le processusMt=

t0f(s)dBsa donc bien un sens pour toutt 0. On montre alors leTheor`eme4.3Le processus Mt, t 0estunprocessusgaussien(FBt)-adapte,centre,defonctionde covariance(s, t) =

ts0f2(u) du.De plus,Mest un P.A.I. au sens o` uMt+s Ms, t 0 Bu, u spour touts 0.38 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITOPreuve:Si lonnoteMntlasuitedintegralesdeWienerassociee`alasuite fnapprochantfdansL2, onvoitque t MntestunprocessusgaussiencommeleBrownien. Parstabilitedans L2desespaces gaussiens, on en deduit que t Mt est un processus gaussien. Lexpression de son esperance etsa fonction de covariance decoule des calculs precedents, et ilest evident par construction queMest(FBt)-adapte. Pour montrer lindependance des accroissements, on ecrit pour touts, t 0Mt+s Ms=

t+ssf(u) dBu=

t+ssf(u) du(Bu Bs) Bu Bs, u [s, t +s]et lon utilise lindependance des accroissements du processusB, qui entrane que Bu Bs, u [s, t +s] Bu, u s

Comme consequence de lexercice 3.3, on obtient alors immediatement limportantCorollaire4.4Les processus Mt, t 0 et Mt, t 0, o` uMt=M2t

t0f2(s) dssont des (FBt)-martingales.Remarquons que sauf lorsquefest constante, le processusMest un P.A.I. mais nest pas un P.A.I.S.(processus`aaccroissementsindependantsetstationnaires, ouencoreprocessusdeLevy), ausenso` ulegaliteMt+s Msd=Mtnest pas veriee pour tout t. Ceci se comprend intuitivement vue lexpression de M sous forme integrale.Cest aussi une consequence dun resultat beaucoup plus profond, la formule de Levy-Khintchine [1] [21],qui est une sorte de formule de structure sur les P.A.I.S. Elle entrane que les seuls processus de Levyqui soient des martingales continues sont du typecBtpour un certainc R. En particulier,Mest unP.A.I.S. si et seulement sif c pour un certainc R.Rappelons aussi, consequence immediate de la formule disometrie, que sif, g L2loc(R+, R), alorsEt0f(u)dBu

s0g(u)dBu

=

ts0f(u)g(u)du.La formule suivante, tr`es utile en pratique, montre enn quon aurait pu denir IT(f) `a laide duneintegrale deterministe (en travaillant par), pourvu quefsoit derivable :Theor`eme4.5[Formuledintegrationparparties] Soit fC1(R+, R)et soit Bt, t 0unmouvement brownien reel. AlorsIt(f) =f(t)Bt

t0f

(s)Bsdspour toutt 0.Preuve : Fixonst 0. Par propriete des espaces gaussiens, il sut de verier queE[BuIt(f)] =EBu

f(t)Bt

t0f

(s)Bsds

4.2. APPLICATIONDELINTEGRALEDEWIENER 39pour tout toutu t. En utilisant la formule dintegration par parties classique, on calculeEBu

f(t)Bt

t0f

(s)Bsds

= uf(t)

t0f

(s)(s u) ds= uf(t)

u

tuf

(s) ds +

u0f

(s)s ds

= uf(u)

u0f

(s)s ds=

u0f(s) ds =E[BuIt(f)].

4.2 ApplicationdelintegraledeWiener4.2.1 LeprocessusdOrnstein-UhlenbeckCest le processus solution de lequation suivante, dite equation de Langevin :Xt=X0a

t0Xsds+Bt, (4.3)o` ua, R, X0estunecertainevariablealeatoire(tr`essouventuneconstanteennance)etBunBrownien independant deX0. On ecrit lequation precedente sous la formedXt= aXtdt +dBt.Le theor`eme suivant montre que la solution de cette equation est explicite en termes dune integrale deWiener :Theor`eme4.6Lequation de Langevin a pour unique solutionXt=eat

X0+

t0easdBs

. (4.4)Preuve : NotonsYtle second membre de (4.4). En utilisant le theor`eme 4.5, on transforme lintegrale

t0easdBs=eatBta

t0easBsdset lon en deduit queYt=eat

X0 a

t0easBsds

+Bt.Dautre part, en appliquant le theor`eme de Fubini,a

t0Ysds = aX0

t0easds+a

t0Bsds a2

t0eas

s0eauBudu

ds= X0(1 eat) +a

t0Bsds a2

t0eauBu

tueasds

du= X0(1 eat) +a

t0Bsds a2

t0Bu

tu0easds

du= X0(1 eat) +a

t0Bsds a

t0Budu+a

t0ea(ut)Budu= X0(1 eat) +a

t0ea(ut)Budu= X0eat

X0a

t0eauBudu

=X0Yt+Bt,40 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITO0 1 2 3 4 50.10.00.10.20.30.40.5Fig. 4.1 Processus O.U.de sorte queYt= X0a

t0Ysds+Btce qui est bien lequation (4.3). Remarquons maintenant que siX1etX2sont deux solutions de (4.3),alorsZ = X1X2verie lEDOZt=a

t0Zsdsdont lunique solution est zero (cette equation secritZ

(t) = aZ(t)dt, Z(0) = 0). AinsiX1 X2et(4.3) a bien une unique solution qui, dapr`es ce qui prec`ede, est le processusY .

Remarque4.7OnauraitpuegalementposerYt=eatXtetappliquerlaformuledintegrationparparties (en admettant quelle est valable pour le processusX, ce que nous justierons plus tard) pourtrouverdYt=eatdXt+aeatXtdt =eatdBt,equation dont la solution estYt= X0+

t0easdBs,de sorte queXt= eat

X0+

t0easdBs

.LaproprietedeMarkovduprocessusdOrnstein-Uhlenbeckestetabliedanslapropositionsuivante.Elle est en fait valable dans un cadre beaucoup plus general que nous verrons au chapitre suivant.4.2. APPLICATIONDELINTEGRALEDEWIENER 41Proposition4.8Lunique solution de (4.3) est un processus de Markov simple : pour touts, t 0 ettoute fonction reelle mesurablef,E

f(Xt+s) [ FBs

=E[f(Xt+s) [ Xs] =(t, Xs)o` u lon a note (t, x) = E[f(Xt) [ X0 = x].Preuve : On ecritXt+s= ea(t+s)

X0+

t+s0eaudBu

= eatXs+ea(t+s)

t+sseaudBu= eat

Xs+

t0eaudBu

o` uleprocessus Bdenipar Bu=Bs+u BsestunBrownienindependantdeFBsetdoncaussideXs FBs. En utilisant la propriete que siXetYsont deux v.a. telles queX FBsetY FBsalorsE

F(X, Y )[FBs

= E[F(x, Y )]x=X , on en deduit queE

f(Xt+s) [ FBs

=E[f(Xt+s) [ Xs] =(t, Xs)pour toute fonction reelle mesurablef.

Lapropositionsuivanteconsid`erelasituationo` uX0estunegaussienneindependanteduBrownienporteur.Proposition4.9Supposons X0 N (m, 20)independantedeB. Alorslasolutionde(4.3)est unprocessus gaussien de fonction esperanceE[Xt] =meatet de fonction de covariancecov[Xs, Xt] =ea(t+s)

20+22a

e2a(st)1

.Preuve : On sait que les deux processust eatX0et t

t0ea(ts)dBssont gaussiens et independants. Donc X, qui est leur somme, est unprocessus gaussien. Commelintegrale de Wiener est desperance nulle, on aE[Xt] =eatE[X0] =meat.Enn, par independance deX0et deB, et par isometrie de lintegrale de Wiener,cov[Xs, Xt] = cov[X0eas,X0eat] +cov

s0ea(us)dBu,

t0ea(ut)dBu

= ea(t+s)

Var[X0] +2

st0e2audu

= ea(t+s)

20+22a

e2a(st)1

.

Remarque4.10SiX0est une constante (i.e.20 = 0), on acov[Xs, Xt] =22a

ea|ts| ea(t+s)

et Var[Xt] =22a

1 e2at

.42 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITO4.2.2 LeprocessusdeVasicekCest une generalisation du mod`ele precedent, avec lajout dune constante dans le drift :dYt=a(b Yt)dt +dBt. (4.5)Cette equationestutiliseepour etudierlevolutiondestauxdinteretdanslemod`elenancierditdeVasicek. Un tel mod`ele est qualife de mean-reverting (retour `a la moyenne) car, poura etb positifs, leprocessusYt tend versb (en un sens `a preciser), quandt tend vers linni. Ce comportement se justieintuitivement:si b>Yt,ledrifta(b Yt)estpositifetleprocessusY est,enmoyennecroissant.QuandYt=b, leprocessusestenmoyenneconstantetsi b s, conditionnellement `a FBs, la variableZt Zsest une gaussiennedesperanceM(s, t) =b(t s)+a1(Ys b)(1 ea(ts))et de varianceV (s, t) =20a2 (1 ea(ts))2+2a2

(t s) + (1 e2a(ts))2a 2(1 ea(ts))a

.On connait la transformee de Laplace dune v.a. gaussienne, on en deduit alors la valeur du zero-coupon :P(t, T) = Eexp

TtYudu

FBt= =expM(t, T) + 12V (t, T)

.= =expb(t s) a1(Ys b)(1 ea(ts)) + 12V (t, T)

.On calculera plus tarddP(t, T) pour obtenir la dynamique du prix.4.3 LintegralestochastiquegeneraleOn cherche maintenant `a denir la v.a.

t0sdBsquand s, s 0estunprocessusstochastique.Lecaract`erealeatoiredevaexigerdesconditionssupplementaires par rapport au cas de lintegrale de Wiener. On noteFBt, t 0la ltration naturelledu mouvement brownienB.Denition4.11On dit que t, t 0 est un bon processus1sil est (FBt)-adapte, c`agl`ad, et siEt02s ds

0.Comme dans le cas de lintegrale de Wiener, la construction deIt() se fait par discretisation :4.3.1 CasdesprocessusetagesCe sont les processus du typent=pni=0i11]ti,ti+1](t)o` upn N,0 =t0 t1. . . tpneti L2(, Tti, P)pourtouti = 0 . . . pn. Onvoit immediatementquenest un bon processus. On denit alorsIt(n) =

t0nsdBs=pni=0i(Bti+1 Bti)1Cettedenominationnestpasstandard44 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITOet on verie que pouri = j,E

i(Bti+1 Bti)i(Bti+1 Bti)

= 0et queE[It(n)] =0 et Var [It(n)] =Et0(ns)2ds

.Cependant, onprendragardequepar lecaract`erealeatoirede n, lavariable It(n) nest pas uneGaussienne en general.4.3.2 CasgeneralLe principe est le meme que pour lintegrale de Wiener, mais les outils mathematiques sous-jacentspluscompliquesqueleslemmeshilbertienetgaussienduparagrapheprecedent. Nouspasseronslesdetails. Si est un bon processus, on montre dabord quil existe n, n 0 suite de processus etagestelle queEt0(s ns)2ds

0quandn +, puis que pour toutt > 0 il existe une v.a.It() de carre integrable telle queE

[It() It(n)[2

0quandn +, avecIt(n) deni comme au paragraphe precedent. On pose alors naturellementIt() =

t0sdBspour toutt 0. Par independance, on remarque dabord queE[It(n)] =pni=0E[i] E

Bti+1 Bti

=0,de sorte, en passant `a la limite, queE[It()] =0.De meme, on obtientVar [It()] = limn+Var [It(n)] = limn+E

It(n)2

= limn+Epni=02i(ti+1 ti)=Et02s ds

.Insistons `a nouveau sur le point que It() nest pas gaussienne en general, sauf lorsque est deterministe.En revanche, dautres proprietes de lintegrale de Wiener sont conservees :Linearite : Pour toust 0,a1, a2 R et1, 2bons processus, on aIt(a11+a22) =a1It(1) +a2It(2).Proprietesdemartingale : Pour tout bon processus, les processust It() et t It()2

t02sdssont des (FBt)-martingales continues. On a donc, pour touts tE

It()

FBs

=Is()4.3. LINTEGRALESTOCHASTIQUEGENERALE 45(soit E

It() Is()

FBs

= 0), et on montre egalement queE

(It() Is())2

FBs

=E

(It())2(Is())2

FBs

=Ets2udu

FBs

.En consequence du theor`eme de Doob, on voit aussi que pout tout (FBt)-temps darret et tout bonprocessus tel queE02s ds

1. Donc, pour quet It(B) soitbien deni et une martingale, il faut et il sut que > 1 et E

B21

< +. OrE

B21

=12

Rx2ex2/2dxet cette integrale est nie si et seulement si > 1/2 (puisque le seul probl`eme dintegrabilite est en0). On en deduit nalement quet

t0BsdBs est une martingale > 1/2.Quand 1 1.Nousterminonssurceparagrapheenrevenantsurlecrochetdedeuxmartingaleslocales, reprenantlesconsiderationsduchapitre2apr`esladecompositiondeDoob-Meyer. Onavuquesi Zestune(Ft)-martingalecontinuedecarreintegrable, alors est luniqueprocessuscroissantcontinu(Ft)-adapte tel quet Z2t < Z>tsoit une (Ft)-martingale. Quitte `a utiliser les temps darretn=inft 0 / Z2t= n,onpeutmaintenant etendrecettedenitionauxmartingaleslocales:si Zestunemartingalelocale,estluniqueprocessuscroissantcontinu(Ft)-adaptetelquet Z2ttsoitune(Ft)-martingale locale. Par polarite, on peut denir le crochet de deux (Ft)-martingales localesMetNenecrivant< M, N>t =12 (< M +N>t < M>t < N>t) .Le crochet < M, N> est aussi lunique processus `a variation nie tel que le processus MN < M, N>soit une martingale locale. On a alors laProposition4.16SoitMune martingale locale continue. AlorsMest une martingaleL2si et seule-ment si E['M`t] < + pour toutt 0.Enn, la proposition suivante donne enn de< M, N> une importante construction trajectorielle :Proposition4.17SoientMetNdeux martingales locales continues. Alors p.s. pour toutt 0,< M, N>t= limn+2ni=1(MtniMtni1)(NtniNtni1)o` u tni , i = 0 . . . 2n designe la subdivision reguli`ere sur [0, t].Remarque4.18Par linegalite de Cauchy-Schwarz, le terme de droite est bien deni pour deux proces-sus `a variation quadratique nie. Cependant, on voit aussi que ce crochet sera nul d`es quune variationquadratique est nulle, en particulier d`es quun des deux processus est `a variation nie.Il resulte aussi de cette proposition le fait crucial que le crochet < M, N> reste inchange si lon eectueun changement de probabilite equivalente. On dit enn que deux martingales continues sont orthogonalessi leurcrochetestnul, cest-`a-diresi leurproduitestunemartingale. Parexemple, deuxBrowniensindependants sont des martingales orthogonales. La proposition 4.12 etablit que le crochet du BrownienBestt=t. On peut aussi calculer le crochet de deux Browniens correles avec coecient :pardenition, t=t. On peut aussi bien entendu calculer le crochet dintegrales stochastiquesgenerales, et les proprietes de martingale entranent immediatement que< I() >t =t02s ds et < I(), I() >t=t0ssds.48 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITO4.4 ProcessusdItoCe sont des processus ecrits sous la formeXt=x+t0bsds+t0sdBs(4.6)o` ub est un processus FBt-adapte tel quet0[bs[ ds =< I(1), I(2) > .Attention, `a cause de la partie `a variation nie, le processust X1tX2ttnest pas unemartingalelocaleengeneral.Enrevanche,commeXi I(i)estunprocessus`avariationnie,onatoujours< X1, X2>t= limn+2ni=1(X1tniX1tni1)(X2tniX2tni1)du fait de la remarque 4.18.4.5. FORMULEDITO 494.5 FormuledItoDans ce paragraphe, on se donne un processus dIto reelXde decomposition (4.6) et une fonctionf: R R susamment reguli`ere. La formule dIto vise `a donner une formule de changement de variablepour le processusf(Xt) qui sera un processus dIto. Imaginons un instant que 0 et queb soit C0.Alors Xest un processus C1et (f X) = (f X)X. Do` u, par la formule de changement de variablesclassique,f(Xt) = f(X0) +t0(f X)(s) ds= f(x) +t0f(Xs)Xsds =f(x) +t0f(Xs) dXs.Cette formule garderait encore un sens quand 0, en posantdXs=bsds+sdBs.Mais en fait, cette formule du 1er ordre nest plus vraie quand 0, `a cause du caract`ere quadratiquede la partie martingale deX. On a une formule du 2`eme ordre :Theor`eme4.20[Premi`ereformuledIto] Supposonsfde classeC2. Alorsf(Xt) =f(x) +t0f(Xs)dXs+12t0f(Xs)2sds.Si fest `a derivees bornees, le processus f(Xt) t0f(Xs)bsds 12t0f(Xs)2sds est une martingale.Cette formule secrit sous forme condenseedf(Xt) = f(Xt)dXt + 12f(Xt)2tdt= f(Xt)btdt + 12f(Xt) 2tdt +f(Xt)tdBt= f(Xt)btdt + 12f(Xt) d'X`t +f(Xt)tdBt.On utilise souvent (dans les articles de nance ecrits par des non-mathematiciens) la notationdf(Xt) = f(Xt)dXt + 12f(Xt)dXtdXtavec la table de multiplicationdt dBtdt 0 0dBt0 dtEn particulier,t f(Xt) est un processus dIto de derivet0f(Xs)bs + 12f(Xs)2sdset de partie martingalet0f(Xs)sdBs.Quandlesderiveessontbornees, lintegralestochastiqueapparaissantdanslaformuleestunevraiemartingale, et on en deduit :E[f(Xt)] = E[f(X0)] +Et0f(Xs)bs + 12f(Xs)2sds= E[f(X0)] +t0Ef(Xs)bs + 12f(Xs)2sds.50 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITOEn faisant Xt = Bt, on retrouve ainsi le premier resultat du paragraphe 3.4. On peut egalement calculerde la meme facon des esperances conditionnelles :Ef(Xt) [ FBs= f(Xs) +Etsf(Xu)bu + 12f(Xu)2uduFBs= f(Xs) +tsEf(Xu)bu + 12f(Xu)2uFBsdu.La deuxi`eme formule dIto fait intervenir le temps en premi`ere variable. Elle sera tr`es utile pour etudierdes EDS inhomog`enes.Theor`eme4.21[Deuxi`eme formule dIto] Soitfune fonction denie sur R+R de classe C1parrapport `at, de classeC2par rapport `ax. On af(t, Xt) = f(0, X0) +t0ft(s, Xs)ds +t0fx(s, Xs)dXs + 12t0fxx(s, Xs)2sds.Comme precedemment, on peut ecrire cette formule sous forme dierentielle :df(t, Xt) =ft(t, Xt) + 12fxx(t, Xt)2tdt+fx(t, Xt)dXt= ft(t, Xt)dt +fx(t, Xt)dXt + 12fxx(t, Xt)d'X`t.Exemple4.22Le mouvement brownien geometrique, ou processus log-normal est deni par lequationXt=x+t0Xsds+t0XsdBsavec, R. Si on poseYt = etXtpour toutt 0, la deuxi`eme formule dIto donnedYt=etXtdBt=YtdBtNousverronsauchapitresuivantdansuncadregeneral (cestaussi uneconsequencedelapremi`ereformule dIto) queYsecritYt=xexpBt 2t/2.On en deduit queXt=xexpt +Bt 2t/2.On peut aussi considerer le cas o` u et sont des fonctions deterministes :Xt=x+t0(s)Xsds+t0(s)XsdBsOn dit alors que Xest un Brownien geometrique `a coecients deterministes. Toujours par la deuxi`emeformule dIto, on montre que le processust Xt expt0(s)dsest une martingale locale. Cest en fait une vraie martingale etXt = X0 expt0(s)ds +t0(s)ds 12t02(s)ds .Enn, la troisi`eme formule dIto permet de traiter des processus bivaries :4.6. FORMULEDEBLACK&SCHOLES 51Theor`eme4.23[Troisi`eme formule dIto] SoientX1etX2deux processus dIto issus dex1(resp.dex2) de coecient de deriveb1(resp.b2), de coecient de diusion1(resp.2) et portes respective-ment par deux Browniens B1et B2correles avec coecient . On suppose que bi, isont (FBit)-adaptes.Soitfune fonction de R2dans R de classe (2`a derivees bornees. On af(X1t, X2t ) = f(x1, x2) +t0f1(X1s, X2s) dX1s+t0f2(X1s, X2s) dX2s+12t0f11(X1s, X2s)1s2+ 2f12(X1s, X2s)1s2s +f22(X1s, X2s)2s2dso` ufidesigne la derivee par rapport `axietfijla derivee seconde par rapport `axjpuisxi,i, j = 1, 2.En dierentiel, la troisi`eme formule dIto peut prendre une forme sommatoire :df(X1t, X2t ) =i=1,2fi(X1t, X2t ) dXit+12 i,j=1,2cijfij(X1t, X2t )itjtdtaveccij = 1 sii = j etcij = sinon. Un exemple important dapplication de la troisi`eme formule dItoest la formule dintegration par parties, o` u lon choisit la fonctionf(x, y) = xy :Proposition4.24[Formule dintegrationpar parties] Avec les memes notations que dans letheor`eme 4.23, on aX1tX2t=x1x2+t0X1sdX2s+t0X2sdX1s+t01s2s ds.On retrouve lexpression du crochet deX1etX2:< X1, X2>t=t01s2s ds,et la formule dintegration par parties secritd(X1X2)t = X1tdX2t+X2tdX1t+d'X1, X2`t.4.6 FormuledeBlack&ScholesOn consid`ere un marche nancier comportant un actif dit sans risque de taux constantr et de prixS0t= ert(soitdS0t= rS0tdt) et un actif risque dont le prixSveriedSt= b Stdt + StdBtsoitSt=S0 expBt + (b 2/2)tavecBmouvement brownien etb, R. On xe un horizonT> 0 et on souhaite donner le prix dunactif nancier qui verserah(ST) `a la dateT. Le cas dun call Europeen de maturiteTet de strikeKcorrespond au cash(x) = (x K)+. On proc`ede par duplication (hedging) : on forme un portefeuilleet dtparts de lactif sans risque (le montant de la richesse investie dans cet actif estert) et detparts de lactif risque. On va trouver un portefeuille auto-nancant (ne necessitant pas de mise de fondsautre qu`a la date 0) de valeur terminaleh(ST). La valeur de ce portefeuille `a la datet estVt=tS0t; + tSt.La condition dauto-nancement se formalise pardVt=tdS0t+tdSt ;soitdVt= trS0tdt +tdSt= rVtdt +tSt ((b r)dt +dBt)52 CHAPITRE4. LINTEGRALESTOCHASTIQUE-FORMULEDITO(Lavaleurinitialeduportefeuilleseralavaleurdel actif nancier. OnsupposequelavaleurVtduportefeuille`aladatetestunefonctiondeterministedutempsetdelavaleurdelactif risque, soitVt = V (t, St). En utilisant la deuxi`eme formule dIto, on calculedVt=Vt (t, St) +b StVx (t, St) +2S2t22Vx2 (t, St)dt+StVx (t, St)dBt.En utilisant et en identiant avec la condition dauto-nancement les parties martingales on obtienttSt +StVx (t, St) =0 soit t =Vx (t, St),ce qui entrane alors en identiant les parties `a variation nierStVx (t, St) +Vt (t, St) +2S2t22Vx2 (t, St) rV (t, St) = 0avecpourconditionterminaleV (T, ST) =h(ST).CommeStestunev.a.quipeutprendretouteslesvaleurs de R+, on en deduit queVsatisfait lEDPrxVx (t, x) +Vt (t, x) +2x222Vx2 (t, x) rV (t, x) =0 (4.7)avecpourconditionterminaleV (T, x)=h(x). Onnoteraquelecoecientbadisparu ! Danslecasdun call europeenh(x) = (x K)+, et pour> 0, cette equation se resoud alors en :V (t, x) =xN (d1) Ker(Tt)N (d2)o` u Nest la fonction de repartition dune v.a. gaussienne standard :N (x) =12xeu2/2du,et avec les notationsd1 =12T tlnxer(Tt)/K+ 122(T t)et d2 = d1 T t.La quantiteCx(t, St) =N (d1)qui represente le nombre de parts de lactif sous jacent utilisees pour repliquer loption sappelle le Deltade l option et represente aussi la sensibilite du prix de l option par rapport au prix du sous jacent. Lecouple (V (t, St) tSt,t) represente le portefeuille de couverture.Remarque4.25Comme consequence de la formule dIto appliquee aux EDS, on verra plus tard uneformule probabiliste pour le prix du call :C(t, St) =er(tT)E(ST K)+[ Fto` u dans le calcul de lesperance on consid`ere queSa pour dynamiquedSt=rStdt +StdWt.Cette formule est fondamentale en Finance, et fait intervenir un changement de probabilite.Chapitre5EquationsdierentiellesstochastiquesLesequationsdierentiellesstochastiques(EDS)sontlesequationsqui regissentlevolutiondelaplupart des prix des actifs nanciers, et ce chapitre en donne une courte introduction. Pour une etudeplus approfondie, nous suggerons la lecture de [15] [16] [17], dans un ordre croissant de diculte.5.1 DenitionsRappelons quune equation dierentielle ordinaire (EDO) sur R+R est un syst`eme du typey0= yyt= f(t, yt)(5.1)o` uy : R+Rest lafonctioninconnueet f : R+ RRest unefonctiondonnee. Letudemathematique des equations dierentielles ordinaires, dune importance considerable pour les applica-tions notamment en physique, sest developpee au debut du 19-`eme si`ecle avec la theorie des fonctionsspeciales. Ces derni`eres peuvent etre vues comme la generalisation de la fonction exponentielle, laquelleest solution dey0= 1yt= yt.Latheorieaprisunnouvelessor`alandu19-`emesi`ecleaveclestravauxdeLieetdePoincare,etcontinue aujourdhui de mobiliser une communaute tr`es importante de mathematiciens. En general, ilestimpossiblededonnerunesolutionexplicite`auneEDO.Onpeutcependantchercher`asavoirsilexiste une solution, et si elle est unique. Un crit`ere est le :Theor`eme5.1[Cauchy-Lipschitz]Supposonsquil existeuneconstanteK> 0tellequepourtoust R+,x, y R [f(t, x) f(t, y)[ K[x y[ (condition de Lipschitz globale)[f(t, x)[ K(1 +[x[) (condition de croissance lineaire)Alors lEDO (5.1) a une solution unique denie sur R+.RemarquonsquelaconditiondeLipschitzglobaleestasseznaturellepourquelasolutionsoitbiendeniesurtout R+.Sionconsid`ereparexempley0= 1etf(t, y) =y2,alorsonvoitfacilementquelunique solution du syst`eme (5.1) correspondant estyt = 1/(1 t), et que cette solution explose ent = 1 avec valeur +.Une equation dierentielle stochastique (EDS) est une perturbation de (5.1) avec un terme aleatoiremodelisantunbruitautourduphenom`enedeterministedecritpar(5.1). Laperturbationlaplussimple est lajout dun Brownien, o` u lon consid`ereY0= ydYt= f(t, Yt)dt +dBt(5.2)5354 CHAPITRE5. EQUATIONSDIFFERENTIELLESSTOCHASTIQUESsoit, sous forme integrale (laseule qui ait unsens mathematique, puisque le Browniennest pasderivable) :Yt=y +t0f(s, Xs)ds+Btpour tout t 0. On a coutume dutiliser des majuscules pour les solutions dEDS et des minuscules pourlessolutionsdEDO.Lecaract`eremartingalienduBrownienentranequepourpetit,latrajectoirenon derivable de la solution de (5.2) va suivre en gros celle reguli`ere et deterministe de (5.1), en oscillantaleatoirement autour. Mais quandest grand, la trajectoire de (5.2) na plus rien `a voir avec celle de(5.1).Le cadre general des EDS concerne la situation o` u le coecientdepend aussi du temps et de lasolution Yt (en nance, on parle alors de mod`ele `a volatilite locale). On peut encore gagner en generaliteen considerant un mod`ele multidimensionnel. Ceci donne laDenition5.2Soientd, m N, b : R+Rd Rdet : R+RdMd,m(R) deux fonctions mesu-rables bornees (b(x) = bi(x), 1 i d est un champ de vecteurs et (x) = ij(x), 1 i d, 1 j mun champ de matrices). Soitx Rdune condition initiale. Une solution de lEDSEx(b, ) :X0= xdXt= b(t, Xt) dt +(t, Xt) dBtest constituee par :(a) Un espace de probabilite ltre (, F, Ft, t 0 , P)(b) Un (Ft)-mouvement brownienB = (B1, . . . , Bm) `a valeurs dans Rm.(c) Un processusX = Xt, t 0 continu Ft-adapte tel que les integralest0b(s, Xs)ds ett0(s, Xs) dBsaient un sens et tel que legaliteXt = x +t0b(s, Xs)ds+t0(s, Xs) dBssoit satisfaite pour toutt P p.s. Autrement dit, pour touti = 1, . . . , d on aXit= x +t0bi(s, Xs)ds+mj=1t0ij(s, Xs) dBjs.Le caract`ere aleatoire des EDS impose plusieurs notions dexistence et dunicite. On dit quil y a(1) Existence dune solution faible siEx(b, ) admet une solutionX.(2) Existence dune solution forte si Ex(b, ) admet une solutionXqui soit adaptee `a la ltration duBrownien porteur.(3) Unicite faible si tous les processusXsolutions deEx(b, ) ont meme loi.(4)Unicitetrajectoriellesi,lespacedeprobabiliteetleBrownienporteur etantxes,deuxsolutionsquelconquesXetXdeEx(b, ) sont indistinguables au sens o` uP[ t R / Xt = Xt] =0.Lexemple suivant montre que lon peut avoir (1) et (3) (existence et unicite faible), mais ni (2) ni (4) :Exemple5.3Soit Wt, t 0 un Brownien standard. On consid`ere le processusBt=t0sgn(Ws) dWso` u sgn est la fonction denie parsgn(x) =1 six 01 six < 0.5.1. DEFINITIONS 55Commesgn2(x) =1, onremarquefacilement queleprocessus Best biendeni et que Best unemartingalecontinuedecrochet t. Parletheor`emedecaracterisationdePaul Levy, Best doncunmouvement brownien. On consid`ere maintenant lEDSX0= 0dXt= sgn(Xt) dBtParconstruction,onvoitqueWestsolutiondecette equation.Deplus,parlememeargumentqueprecedemment, onvoitquetouteslessolutionsdecette equationsontdesmouvementsbrowniensetsont donc egaux en loi : on a existence et unicite faibles. En revanche le point (4) nest pas verie : leprocessus West aussi solution de lequation avec pour toutt > 0,P[Wt = Wt] =P[2Wt = 0] =1,desorteque Wet Wsontdeuxprocessussolutionqui nesontpasindistinguables. Deplus, parconstruction on voit intuitivement (et on peut demontrer rigoureusement) que la ltration naturelle duprocessusBest celle de [X[, laquelle est bien s ur plus petite que celle deX, puisquelle ne prend pasencomptelesignedeX.DonctoutesolutionXnestpas(FBt)-adapteeetilnyapasexistencedesolution forte.Le theor`eme suivant nous dit en revanche que (1) + (4) = (2) + (3) :Theor`eme5.4[Yamada-Watanabe] Supposons que Ex(b, ) admette une solutionfaible et quetoutes ses solutions soient indistinguables. AlorsEx(b, ) admet une unique solution forte.Le theor`eme suivant est lanalogue du theor`eme de Cauchy-Lipschitz pour les EDS. Il fournit les condi-tions standard dexistence et dunicite de solution forte :Theor`eme5.5[Theor`eme dexistence sous conditions lipschitziennes] Supposons que pour toutcompactKde Rd, il existe une constanteMK> 0 telle que(a) [bi(t, x) b(t, y)[ + [ij(t, x) ij(t, y)[ MK [x y[ pourtout i =1 . . . d, j =1 . . . m, t 0,x, y K(condition de Lipschitz locale)et quil existe une constanteM> 0 telle que(b) [bi(t, x)[ +[ij(t, x)[ M(1 +[x[) pour touti = 1 . . . d, j = 1 . . . m, t 0, x, y Rd(condition decroissance lineaire),alors il existe une unique solution forte `aEx(b, ), de duree de vie innie.Lademonstrationdelexistencefaiblereposesurunemethodedepointxe, unpeutroplongue`adetailler ici. Lidee est de construire une suiteXnparXnt= x +t0bi(s, Xn1s)ds+mj=1t0ij(s, Xn1s) dBjs ,et de montrer la convergence de cete suite vers une solution.Nous allons en revanche demontrer lunicite trajectorielle, qui sut pour avoir existence et unicitedune solution forte, dapr`es le theor`eme de Yamada-Watanabe. On suppose pour simplier queb etsont globalement lipschitziennes en espace, avec constanteM. Largument repose sur le lemme suivantqui est extremement utile :Lemme5.6[Gronwall] SoitT> 0 etgune fonction positive mesurable bornee telle queg(t)a+bt0g(s) dspour toutt T, o` ua etb sont des constantes positives. Alorsg(t)aebtpour toutt T.56 CHAPITRE5. EQUATIONSDIFFERENTIELLESSTOCHASTIQUESLa preuve est facile par iteration de la condition surg sous lintegrale : on ecritg(t) a+bt0a+bs0g(u) duds a+abt +b20ustg(u) duds a+abt +b20usta+bu0g(v) dvduds a+abt +ab20ustduds+b3t0s0u0g(v) dv duds a+abt +ab2t22+b3t0s0u0g(v) dv duds... a+abt +ab2t22+ab3t33!+=aebt.On xe alorst > 0 et on consid`ere deux solutions distinctesXetYdeEx(b, ). On aE[Xt Yt[2= Et0b(s, Xs) b(s, Ys) ds+t0(s, Xs) (s, Ys) dBs2 2Et0[b(s, Xs) b(s, Ys)[ ds2+Et0[(s, Xs) (s, Ys)[ dBs2 2M2t2t0E[Xs Ys[2ds+t0E[Xs Ys[2ds Kt0E[Xs Ys[2dspourunecertaineconstanteK>0, o` udanslapremi`ereinegaliteonautiliselaformule(a + b)22(a2+ b2) et dans la deuxi`eme inegalite on a utilise la lipschitziannite deb et, linegalite de Holderpour la premi`ere integrale et lisometrie de lintegrale stochastique pour la deuxi`eme. On en deduit leresultat en utilisant le lemme de Gronwall.Dans la pratique, le theor`eme dexistence lipschitzien est parfois insusant pour ce qui concerne lecoecient de diusion. On peut cependant notablement ameliorer ce theor`eme dans le cas reel :Theor`eme5.7[Yamade-WatanabeII]Soitd =m = 1.Supposonsquebetsoient`acroissancelineaire,quebverielaconditiondeLipschitzlocaleetque [(t, x) (t, y)[2([x y[)pourtoutt 0, o` u est une fonction borelienne de ]0, [ dans lui-meme telle que|z|dz2(z)=+.pour tout > 0. AlorsEx(b, ) admet une unique solution forte.Une classe tr`es importante dEDS sont les equations de Bessel :Xt=x+2t0XsdWs+ t (5.3)sur R, o` u West un Brownien reel et x, > 0. Par le deuxi`eme theor`eme de Yamada-Watanabe appliqueavec la fonction (x) = x, on voit que (5.3) admet une unique solution forte. De plus, on peut montrerque cette solution est toujours positive et de duree de vie innie. Cependant, le theor`eme dexistencelipschitziennauraitpaspermisdobtenirceresultat,car(x) = xnestpaslipschitzienneenzero.LeprocessusXestunprocessusdeBessel carrededimension. Nousreviendronsplustardsurlesprocessus de Bessel et sur leurs liens avec le mouvement brownien.5.2. QUELQUESPROPRIETES 575.2 Quelquesproprietes5.2.1 ProprietedeMarkovSupposons queEx(b, ) ait une unique solution forte Xt(x), t 0. Par linearite de lintegrale, onvoit que pour touts, t 0,Xs+t(x) =Xs(x) +s+tsb(u, Xu(x)) du+s+ts(u, Xu(x)) dBu.CommelavariableXs(x)est FBs-mesurable, elleestindependanteduprocessusdesaccroissementsBu Bs, u s , qui est lui meme un BrownienBpartant de 0. On peut donc ecrireXs+t(x) =Xs(x) +t0b(s +u, Xs+u(x)) du+t0(s +u, Xs+u(x)) dBuet par unicite, ceci entrane queXs+t(x) = Xst(Xs(x)) pour toutt 0, o` uXst(x) est lunique solutiondeEx(b(s + ., .), (s + ., .)) portee par le BrownienB. Pour touts, t 0 et toute fonction boreliennef, on deduit alors de lindependance deBet FBsqueEf(Xt+s) [ FBs=E[f(Xt+s) [ Xt] =t(s, Xs)o` ut(s, x)= E[f(Xst(x))] . Ceci signiequeXverielaproprietedeMarkovinhomog`ene. Cestunresultat important qui permet de calculer facilement certaines esperances conditionnelles. Dans le caso` u les coecients b et ne dependent pas du temps, X verie de plus la propriete de Markov homog`ene,au sens o` uEf(Xt+s) [ FBs=E[f(Xt+s) [ Xs] =t(Xs)avec t(x) = E[f(Xt(x))] . La dierence entre homog`ene et inhomog`ene provient de la dependance entemps. Dans le cas homog`ene, on peut etendre la propriete aux temps darret nis :Theor`eme5.8[ProprietedeMarkovforte] SoitXlunique solution forte deEx(b, ) avecb etnedependantpasdutemps.Soit Tuntempsdarretnip.s.pourlaltrationnaturelleduBrownienporteur. Alors pour toutt 0 et toute fonctionfmesurable bornee,Ef(XT+t) [ FBT=E[f(XT+t) [ XT] =t(XT)o` u lon a note t(x) = E[f(Xt(x))] .Dans le cas inhomog`ene, on montre que le processus espace-temps t (t, Xt) verie la propriete deMarkov forte, au sens o` u pour tout temps darret niTet toute fonctionfde deux variables,Ef(T +t, XT+t) FBT=E[f(T +t, XT+t) [ T, XT ] =t(T, XT)aveclanotationt(s, x)= E[f(s +t, Xst(x))] . Onvoitdoncqueengeneral, uncoupledeprocessus(X, Y ) peut etre fortement markovien sans que ses composantes le soient.5.2.2 Theor`emedecomparaisonCe theor`eme permet de comparer presque s urement deux EDS uni-dimensionnelles, et sav`ere souventextremementutileenpratique. Lapreuve, qui utilisedesargumentssemblables`aceuxdelunicitetrajectorielle vus precedemment, peut etre trouvee dans [11].Theor`eme5.9Soit Wt, t 0 un mouvement brownien reel,b1, b2et trois fonctions globablementlipschitziennes,x1 x2deux reels. On consid`ere les deux EDSXit=xi+t0bi(Xis) ds+t0(Xis) dWspouri = 1, 2. Supposons queb1(x) b2(x) pour toutx R. AlorsX1t X2tp.s. pour toutt 0.58 CHAPITRE5. EQUATIONSDIFFERENTIELLESSTOCHASTIQUES5.2.3 FonctiondechelleOn consid`ere lEDS homog`eneXt=X0+t0b(Xs)ds+t0(Xs)dBso` ub et sont des fonctions de R dans R globalement lipschitziennes. Dapr`es la formule dIto, on voitque sifest une fonction de R dans R de classe C2`a derivees bornees et telle queb(x)f(x) + 122(x)f(x) =0pourtoutx R,alorsleprocessust f(Xt)estunemartingale(martingalelocalesi fnestpas`aderiveesbornees).LafonctionfestappeleefonctiondechelleduprocessusX.Elleestdeterminee`adeux constantes pr`esc1etc2par la formulef(x) =xc1exp2uc2b(v)/2(v) dvdu.Loperateur Lqui `af C2(R, R) fait correspondreLf: x b(x)f(x) + 122(x)f(x)sappelle le generateur innitesimal du processus X ou encore son Dynkin. On peut montrer quil verieLf(x) = limt0Ex [f(Xt)] f(x)t= limt0E[f(Xt) [ X0 = x] f(x)tpour toutx Rd. Le generateur innitesimal a aussi un sens dans le cas inhomog`ene : si lon consid`erelEDSXt=X0+t0b(s, Xs)ds+t0(s, Xs)dBs,alorsonpeutdenirsongenerateurinnitesimal commeloperateurLagissantsurlesfonctionsdeR+R une fois derivables en temps et deux fois en espace parL(f)(t, x) =b(t, x)fx(t, x) +2(t, x)2fxx(t, x).Dapr`es la formule dIto, on voit que sifest une fonction de R+ R dans R telle queL(f)(t, x) +ft(t, x) = 0,alors le processus f(t, Xt), t 0 est une martingale locale. Cest de plus une vraie martingale sousdes conditions supplementaires dintegrabilite, par exemple quand la fonctionfxest bornee.On peut enn introduire un coecient exponentiel (qui joue le role dun coecient dactualisationen nance) pour retrouver le prix dun call europeen vu au chapitre precedent. En eet, supposons queXest un brownien geometriquedXt=rXtdt +XtdBtet soitfune fonction de R+ R dans R telle quefxest bornee etft(t, x) +L(f)(t, x) =rf(t, x), (5.4)alorsleprocessust ertf(t, Xt)estunemartingale.Enparticulier,si fverie x,f(T, x) =h(x)comme condition au bord, alorsf(t, Xt) =er(tT)E[h(XT) [ Ft] .On donnera des applications en nance dans la section 5.3.2.5.3. LIENAVECLESEQUATIONSAUXDERIVEESPARTIELLES 595.2.4 MartingaleexponentielleetconditiondeNovikovSoitun bon processus local etZ0une constante. Par la formule dIto, on demontre que luniquesolution de lEDSZt=Z0+t0sZsdBs(5.5)estZt=Z0 expt0sdBs 12t02sds.Le processusZ, note Et(B) est appele lexponentielle de Doleans-Dade deB. Par (5.5), cest unemartingale locale positive d`es que Z0> 0. Le crit`ere suivant, de preuve dicile, permet de savoir quandlexponentielle de Doleans-Dade est une martingale :Theor`eme5.10[ConditiondeNovikov] Supposons queEexp12t02s ds 0. Alorst Et(B) est une vraie martingale.QuandlaconditiondeNovikovnestpassatisfaite, E (B)estunemartingalelocalepositive,doncune surmartingale, et E[Zt] E[Zs] Z0pour toutt s 0. On ne connait pas de conditions plusfaciles `a verier que la condition de Novikov, sauf dans le cas particulier suivant :Proposition5.11Supposons t=f(t, Bt) o` uf est unefonctionglobalement lipschitzienne. Alorst Et(B) est une vraie martingale.5.3 Lienaveclesequationsauxderiveespartielles5.3.1 Probl`emeparaboliqueOnconsid`ereloperateur Af(t, x)=ft(t, x) + Lf(t, x)o` uLestlegenerateurinnitesimal duprocessusXsolution de lEDSXt=X0+t0b(s, Xs)ds+t0(s, Xs)dBs. (5.6)On cherche les solutions du probl`eme parabolique suivantAf(t, x) = 0 pour toutx R ett [0, T]f(T, x) = g(x) pour toutx R.(5.7)o` u g est une fonction de R dans R. Sifest une solution de (5.7) et si pour tout u t 0 on note Xx,tuune solution deXx,tu=Xx,tt+utb(s, Xx,ts)ds+ut(s, Xx,ts)dBsavec pour condition initialeXx,tt= x, la formule dIto conduit alors `af(u, Xx,tu) =f(t, x) +utfx(s, Xx,ts)(s, Xx,ts)dBs.En faisantu = Ten particulier, on en deduit queg(Xx,tT) =f(t, x) +Ttfx(s, Xx,ts)(s, Xx,ts) dBs.Si fxetverient des conditions dintegrabilite susante, alors lintegrale stochastique est une mar-tingale. On en ded