Conditionnement
16
3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de d´efinitions et de propri´et´es li´ees au probl`eme du conditionnement, c’est `a dire `a la prise en compte de la donn´ee a priori d’une information suppl´ementaire sur le r´esultat de l’exp´erience al´eatoire. La notion d’esp´erance conditionnelle (et plus g´en´eralement de loi conditionnelle) est `a la base de la plupart des constructions de la th´eorie moderne des probabilit´es. Sauf mention contraire, on suppose donn´e un espace de probabilit´es (Ω, F, P ). 3.1. Probabilit´ e conditionnelle et ind´ ependance. Commen¸cons par quelques rappels de notions ´el´ementaires. ´finition 3.1. Soient A et B deux ´ev´enements tels que P (B) != 0. On appelle probabilit´e conditionDe P (A ∩ B) nelle de A sachant B le r´eel P (A/B) = . P (B) Il faut bien sˆ ur comprendre intuitivement la d´efinition pr´ec´edente comme mesurant la probabilit´e normalis´ee de ceux des ω ∈ B qui r´ealisent A. En quelque sorte, puisqu’on connaˆıt le fait que B se r´ealise, l’espace de probabilit´es peut ˆetre restreint `a B. Le cas particulier majeur de cette situation est celle o` u B n’a pas d’influence sur A, ce qui s’exprime aussi en disant que conditionner ou non par B ne change pas la probabilit´e de A. Ce qui revient `a dire que P (A/B) = P (A) ou encore P (A ∩ B) = P (A)P (B). Prolongeant cette d´efinition au cas o` u P (B) = 0, on a la d´efinition classique suivante ´finition 3.2. a) Deux ´ev´enements A et B sont ind´ependants si on a P (A ∩ B) = P (A)P (B). De
b) Deux sous-tribus G et H de F sont ind´ependantes si et seulement si tout ´el´ement de G et tout ´el´ement de H sont ind´ependants. L’exercice suivant montre, si besoin ´etait, qu’il n’y a aucun rapport entre l’ind´ependance et la disjonction. Exercice 3.3. Montrer que A et Ac sont ind´ependants si et seulement si P (A) = 0 ou 1. On prolonge comme d’habitude cette d´efinition au cas de n ´ev´enements et plus g´en´eralement au cas de n variables al´eatoires. ´ore `me et De ´finition 3.4. Soient X1 , . . . , Xn des variables al´eatoires ` The a valeurs dans des espaces mesurables (E1 , E1 ), . . . , (En , En ). On dit que les variables X1 , . . . , Xn sont ind´ependantes si une des propri´et´es ´equivalentes suivantes est r´ealis´ee n ! (i) ∀(A1 , . . . , An ) ∈ E1 ⊗ · · · ⊗ En , P (X1 ∈ A1 , . . . , Xn ∈ An ) = P (Xk ∈ Ak ) k=1
(ii) µ(X1 ,...,Xn ) (dx1 , . . . , dxn ) =
n "
µXk (dxk )
k=1
(iii) Pour toutes fonctions fk : Ek → R mesurables born´ees (resp. mesurables positives), on a n n ! ! E( fk (Xk )) = E(fk (Xk )). k=1
k=1
Les ´equivalences du Th´eor`eme et D´efinition 3.4 sont laiss´ees en exercice. Rappelons aussi `a toutes fins utiles la ´finition 3.5. On dit que la suite de variables al´eatoires (Xn )n∈N est compos´ee de variables ind´ependantes De si et seulement si pour tout n, les variables X1 , . . . , Xn sont ind´ependantes.
Conditionnement
17
Un r´esultat fondamental li´e aux suites de variables ind´ependantes est dˆ u `a Kolmogorov: ´ore ` The # me 3.6. (loi du 0-1) Soit (Xn )n≥0 une suite de variables al´eatoires ind´ependantes. On pose G= σ(Xk , k ≥ n) (“tribu de queue”). Alors, ∀A ∈ G, P (A) = 0 ou 1. n≥0
Preuve: Posons F∞ = σ(X0 , X1 , . . . , Xn , . . . ). Noter qu’´evidemment G ⊂ F∞ . Soient A ∈ G et C = {B ∈ F∞ , P (A ∩ B) = P (A)P (B)}. On$ v´erifie imm´ediatement que C est une classe monotone. De plus, C contient l’alg`ebre de Boole B = σ(X0 , . . . , Xn ). Par le th´eor`eme de classe monotone n≥0
(Th´eor`eme 1.2), il contient donc la tribu engendr´ee par B, c’est `a dire F∞ . En particulier, A ∈ C et donc A est ind´ependant de lui mˆeme, ce qui ´equivaut `a P (A) = 0 ou 1. Exercice 3.7. Soient A1 , . . . , An des ´ev´enements. a) Montrer que si A1 , . . . , An sont ind´ependants, il en est de mˆeme de A1 , . . . , An−1 , Acn .
b) D´eduire que ∀J ⊂ {1, . . . , n}, (Acj , j ∈ J; Ai , i ∈ {1, . . . , n} \ J) forme un ensemble de variables ind´ependantes. c) Montrer que A1 , . . . , An sont ind´ependants si et seulement si les variables al´eatoires 1A1 , . . . , 1An sont ind´ependantes. Exercice 3.8. On se place sur l’espace de probabilit´es ([0, 1], B, λ). Soit x ∈ [0, 1]. On ´ecrit x sous la ∞ % xk forme de sa d´ecomposition dyadique x = et on pose Xk (x) = xk . 2k k=1
a) Montrer que les variables al´eatoires (Xk )k≥1 forment une suite de variables ind´ependantes et de mˆeme loi 12 (δ0 + δ1 ). b) Montrer qu’il existe une suite (Yn ) de variables al´eatoires ind´ependantes sur ([0, 1], B, λ) telle que Yn suit une loi uniforme sur [0, 1].
c) Soit (µn )n≥1 une suite de mesures de probabilit´es sur R. Montrer qu’il existe une probabilit´e IP sur E = R⊗N telle que sous IP , les projections canoniques zk : E → R, (xn )n≥0 )→ xk forment une suite de variables ind´ependantes et zn a pour loi µn . Exercice 3.9. Soit (Bt )t∈R+ une famille de variables al´eatoires v´erifiant les conditions suivantes: (i) ∀t1 < t2 < · · · < tn , (Bt1 , . . . , Btn ) est un vecteur gaussien centr´e (ii) ∀(s, t), E(Bs Bt ) = s ∧ t
(iii) p.s., t )→ Bt (ω) est une fonction continue
a) Montrer que (Bt ) est ` a accroissements ind´ependants et stationnaires i.e. ∀t1 < t2 < · · · < tn , Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 sont des variables ind´ependantes et ∀s < t, Bt − Bs a mˆeme loi que Bt−s . b) On pose
Gnt
=
n−1 % k=0
n
(B k+1 t − B k t )2 . Montrer qu’il existe une suite np telle que Gt p → t p.s. n
n
c) Soit t > 0. Montrer que p.s., s )→ Bs (ω) n’est pas ` a variations finies sur l’intervalle [0, t]. Exercice 3.10. On rappelle la Formule de Poincar´e: si (A1 , . . . , An ) sont des ´ev´enements, n n $ % P( Ak ) = (−1)k−1 Sk
o` u Sk =
%
1≤i1
k=1
P (Ai1 ∩ · · · ∩ Aik ).
k=1
Conditionnement
18
A) Sur N∗ , on consid`ere la probabilit´e Ps (s > 1 r´eel fix´e), d´efinie par 1 Ps ({n}) = ζ(s)ns % 1 o` u ζ(s) = (fonction de Riemann). ns n≥1
Pour p premier, on d´efinit les variables al´eatoires ρp et αp par ρp (n) = 1 si p divise n, 0 sinon, et αp (n) = exposant de p dans la d´ecomposition en facteurs premiers de n. a) Trouver la loi des variables ρp et montrer qu’elles sont ind´ependantes. b) Montrer que ζ(s) =
∞ !
k=1
(1 −
1 −1 ) o` u {pk , k ≥ 1} d´esigne la suite des nombres premiers dans N. psk
B) Soit N ≥ 2 un entier fix´e. On pose Ω = {1, . . . , N }2 et on note PN la probabilit´e uniforme sur Ω.
1) On introduit les ´ev´enements B = { les entiers choisis sont premiers entre eux} et Ap = { les entiers choisis sont divisibles par p} o` u p est premier. On note p1 , p2 , . . . , pn les nombres premiers inf´erieurs ` a N et on fixe un entier m ≥ 1. a) Montrer que
PN ( 1 o` u Sk = 2 N
%
m $
Apk ) =
k=1
m %
(−1)k−1 Sk
k=1
[N/pi1 . . . pik ] . 2
1≤i1
b) D´eduire, toujours pour m fix´e, que lim PN ( N
c) Conclure que
lim PN (B) =
N →+∞
m $
k=1
Apk ) = 1 −
m !
k=1
(1 −
1 ). p2k
6 . π2
3.2. Esp´ erance conditionnelle. La notion d’esp´erance conditionnelle prolonge le formalisme pr´ec´edent en cherchant `a int´egrer la connaissance de la valeur d’une variable al´eatoire, et plus seulement celle du fait qu’un ´ev´enement particulier s’est r´ealis´e. Commen¸cons par une situation simple mais exemplaire de ce qu’on cherche `a faire. Soit X une variable al´eatoire r´eelle et T une variable al´eatoire `a valeurs dans un ensemble d´enombrable E = {t0 , t1 , . . . , tn , . . . }. D’apr`es le paragraphe pr´ec´edent, pour k ∈ N, sur l’´ev´enement (T = tk ) est d´efinie une probabilit´e Qk = P (./T = tk ) qui r´epr´esente la mesure de probabilit´e P tenant compte du fait que (T = tk ) s’est r´ealis´e. De &ce fait, la valeur moyenne de X sachant que T = tk sera naturellement prise ´egale `a E(X/T = tk ) =
X(ω)dQk (ω), et on d´efinira par suite l’esp´erance conditionnelle
(T =tk )
de X sachant T comme ´etant la variable al´eatoire ´egale `a % E(X/T ) = E(X/T = tk )1(T =tk ) . k≥0
Noter qu’avec cette d´efinition E(X/T ) apparaˆıt comme une fonction de T , ou encore comme une variable σ(T )-mesurable. Pour chercher `a prolonger ce r´esultat au cas de variables T `a valeurs non d´enombrables, on peut remarquer sur l’exemple pr´ec´edent que pour n’importe quelle fonction born´ee f : E → R, E(f (T )X) = ' f (t )E(1 k (T =tk ) X). Or, comme pour n’importe quel A ∈ F, E(1(T =tk ) 1A ) = P ((T = tk ) ∩ A) = k≥0
Conditionnement
19
P (T = tk )Q & k (A) = E(1(T =tk ) Qk (A)), on en d´eduit par les arguments habituels que E(1(T =tk ) X) = E(1(T =tk ) XdQk ), et donc que Ω
& % E(f (T )X) = E( f (tk )1(T =tk ) XdQk ) = E(f (T )E(X/T )). k≥0
Ω
Ceci conduit naturellement `a poser la d´efinition suivante. ´ore `me et De ´finition 3.11. Soient X une variable al´eatoire r´eelle admettant un moment d’ordre The 1 et T une variable al´eatoire. On appelle esp´erance conditionnelle de X sachant T l’unique variable al´eatoire Y mesurable par rapport ` a σ(T )telle que pour toute variable born´ee Z mesurable par rapport a σ(T ), on ait ` E(X.Z) = E(Y.Z). (3.1) Cette variable est not´ee E(X/T ) ou E σ(T ) (X). Preuve: Y −Y) 1Y *=Y " |Y −Y) | est σ(T )−mesurable et born´ee. De ce fait, en appliquant (3.1), 0 = E((Y −Y ) )Z) = E(| Y −Y ) | 1Y *=Y " ) d’o` u Y = Y ) -p.s. Unicit´e: Supposons que Y et Y ) satisfassent la D´efinition 3.11. La variable al´eatoire Z =
Existence: Commen¸cons par supposer que X ∈ L2 (Ω, F, P ). Posons H = L2 (Ω, σ(T ), P ), il s’agit d’un sous espace vectoriel ferm´e de l’espace de Hilbert L2 (Ω, F, P ), et de ce fait, on peut d´efinir Y la projection orthogonale de X sur H. C’est une variable σ(T )-mesurable et elle satisfait, pour toute variable Z σ(T )-mesurable et born´ee (et donc dans H), E(XZ) = E(Y Z) soit (3.1). D’o` u l’existence cherch´ee dans ce cas. Noter que par propri´et´e de la projection orthogonale, l’esp´erance conditionnelle sur L2 est ainsi lin´eaire. Prenant Z = 1 dans (3.1) montre que E(E(X/T )) = E(X). De plus, si X ≥ 0, E(X/T ) ≥ 0 (prendre Z = 1E(X/T )≤0 dans (3.1)). De ce fait, pour X ∈ L2 , on a E(| X | /T ) ≥| E(X/T ) | et donc, prenant l’esp´erance, ,E(X/T ),1 ≤ ,X,1 .
Achevons la preuve du Th´eor`eme 3.11. Supposons que X soit dans L1 . On peut trouver une suite Xn de variables de L2 telle que ,Xn − X,1 → 0. On a ,E(Xn /T ) − E(Xp /T ),1 ≤ ,Xn − Xp ,1 et donc E(Xn /T ) est une suite de Cauchy dans L1 qui converge vers un ´el´ement not´e E(X/T ). Pour tout Z, σ(T )-mesurable et born´e, on a E(Xn .Z) = E(E(Xn /T ).Z) et donc par passage `a la limite L1 , E(X.Z) = E(E(X/T ).Z). Les principales propri´et´es de l’esp´erance conditionnelle sont rappel´ees dans la proposition ci-dessous dont la d´emonstration est laiss´ee en exercice ((i),(ii) et (iv) ont d´ej`a ´et´e prouv´ees). Proposition 3.12. Soit T une variable al´eatoire et soit X une v.a.r. int´egrable. (i) E(./T ) est un op´erateur lin´eaire positif continu sur L1 (ii) Si X est σ(T )-mesurable, E(X/T ) = X, p.s. (iii) Si ϕ est convexe sur R, ϕ(E(X/T )) ≤ E(ϕ(X)/T ) p.s. (iv) ,E(X/T ),1 ≤ ,X,1
(v) Si Xn → X p.s., et ∀n ≥ 0, | Xn |≤ Y ∈ L1 , E(Xn /T ) → E(X/T ) p.s. Il sera souvent utile de consid´erer l’information apport´ee dans le conditionnement sous la forme d’une sous-tribu B de F, le cas pr´ec´edent correspondant `a B = σ(T ). La D´efinition 3.11 s’´etend alors naturellement:
Conditionnement
20
´finition 3.13. Soient X une variable al´eatoire r´eelle int´egrable, et B une sous-tribu de F. On De appelle esp´erance conditionnelle de X sachant B l’unique variable al´eatoire Y, B-mesurable, telle que ∀Z, B-mesurable born´ee, E(X.Z) = E(Y.Z). Une propri´et´e utile qui se d´eduit de la d´efinition pr´ec´edente est l’emboˆıtement des conditionnements successifs. Proposition 3.14. Soient X une variable al´eatoire r´eelle int´egrable et B ) ⊂ B deux sous-tribus de F. Alors E(X/B ) ) = E[E(X/B)/B ) ]. Preuve: Il suffit de remarquer que E(E(X/B)/B ) ) est une variable al´eatoire B ) -mesurable et que, pour toute variable al´eatoire Y , B ) −mesurable born´ee, on a E(Y.E[E(X/B)/B ) ]) = E(Y.E(X/B)) = E(Y.X), la derni`ere ´egalit´e r´esultant du fait que Y est aussi B-mesurable.
Notons enfin, pour clore ce paragraphe sur l’esp´erance conditionnelle que si X et T sont ind´ependantes, la relation (3.1) est ´evidemment v´erifi´ee en prenant Y ´egale `a la constante E(X), et donc, vu l’unicit´e de l’esp´erance conditionnelle, on peut ´enoncer Corollaire 3.15. Soient X une v.a.r. int´egrable, et T une variable al´eatoire telles que X et T soient ind´ependantes. Alors, E(X/T ) = E(X) p.s. Exercice 3.16. Soit (Bi )i∈I la famille de toutes les sous-tribus de F et X une v.a. int´egrable. Montrer que la famille (IE Bi (X))i∈I est ´equi-int´egrable. Exercice 3.17. On pose Var(X/G) = E[(X − E(X/G))2 /G]. Montrer que Var(X) = E[Var(X/G)] + Var(E(X/G)).
Exercice 3.18. a1) Soient (X, Y, Z) tel que (X, Z) ∼ (Y, Z). Montrer que ∀f ≥ 0 et bor´elienne, E(f (X)/Z) = E(f (Y )/Z). a2) On pose h1 (X) = E(g(Z)/X) et h2 (Y ) = E(g(Z)/Y ) pour g bor´elienne positive donn´ee. Montrer que h1 = h2 , µ-pp, o` u µ d´esigne la loi de X. b) Soient T1 , . . . , Tn des variables al´eatoires r´eelles int´egrables ind´ependantes et de mˆeme loi. On pose T = T1 + · · · + Tn .
b1) Montrer que E(T1 /T ) =
T n.
b2) Calculer E(T /T1 ) Exercice 3.19. Soit (Xn ) une suite de variables al´eatoires r´eelles id´ependantes ` a valeurs dans Rd . On pose S0 = 0, Sn = X1 +· · ·+Xn , Fn = σ(Sk , k ≤ n). Montrer que pour toute f : Rd → R bor´elienne born´ee, E(f (Sn )/Fn−1 ) = E(f (Sn )/Sn−1 ) et calculer cette quantit´e. Exercice 3.20. a) Soit X ` a valeurs dans Rm tel que X = ϕ(Y ) + Z o` u Y et Z sont ind´ependantes. Calculer E(f (X)/Y ). b) Soient X et Y ` a valeurs dans Rk et Rp respectivement. On suppose que (X, Y ) est un vecteur gaussien de moyenne On suppose RY inversible.
(
MX MY
)
et de covariance
(
RX RY X
) RXY . RY
b1) D´eterminer A telle que X − AY et Y soient ind´ependantes. * b2) Montrer que E(f (X)/Y ) = f (x)µY (dx) o` u µY est la loi gaussienne de moyenne E(X/Y ) = MX + RXY RY−1 (Y − MY ) et de covariance RX − RXY RY−1 RY X .
Conditionnement
21
Exercice 3.21. A) Soient σ > 0, a ∈ Rd et C une matrice d × d d´efinie positive. Montrer que
(C + σ 2 at a)−1 = C −1 −
C −1 at aC −1 . σ −2 + < C −1 a, a >
B) Soient (Zn ) une suite de variables al´eatoires r´eelles id´ependantes. On suppose que pour tout n, Zn ∼ N (0, c2n ) o` u cn > 0. Soit X une variable al´eatoire de loi N (0, σ 2 ) (σ > 0), ind´ependante de la ˆ n = E(X/Gn ). On pose Y n = (Y1 , . . . , Yn ). suite (Zn ). On pose Yn = X + Zn , Gn = σ(Y1 , . . . , Yn ), X B1) Quelle est la loi de (X, Y1 , . . . , Yn )? B2) Calculer E(f (X)/Y n ) ˆ n et E((X − X ˆ n )2 ) B3) Calculer X
−2 ˆ n → X dans L2 si et seulement si ' B4) Montrer que X n≥1 cn = +∞.
Exercice 3.22. Soient F1 , F2 , F3 trois sous-tribus de F. On dit que F1 et F2 sont conditionnellement ind´ependantes sachant F3 si ∀(A, B) ∈ F1 × F2 , E(1A 1B /F3 ) = E(1A /F3 )E(1B /F3 ). Montrer que ceci ´equivaut ` a: ∀Y, F2 -mesurable born´ee, E(Y /F3 ) = E(Y /F13 ), o` u F13 = σ(F1 , F3 ).
3.3. Lois conditionnelles. De mˆeme que la loi d’une variable al´eatoire X contient l’information probabiliste requise pour l’utilisation de cette variable, on a naturellement besoin d’une notion correspondante pour l’information qu’apporte cette variable lorsqu’on connait en plus une autre variable al´eatoire T . C’est le rˆole que va jouer la loi conditionnelle. Soient X une variable al´eatoire `a valeurs dans (E, E) et T une variable al´eatoire. Le probl`eme qu’on se pose est le suivant: construire une mesure νT sur (E, E) telle que pour toute fonction f : E → R * mesurable born´ee, on ait E(f (X)/T ) = E f (x)νT (dx). Naturellement, une telle relation va imposer `a νT d’ˆetre une mesure al´eatoire, et mˆeme plus pr´ecis´ement que l’al´ea se lise `a travers T (puisque par d´efinition, E(f (X)/T ) est une variable σ(T )-mesurable). L’id´ee qui vient naturellement est de d´efinir la mesure νT par νT (A) = E(1A (X)/T ). Le probl`eme est que la relation pr´ec´edente, une ´egalit´e entre variables al´eatoires, n’a de sens que p.s. et donc, sauf dans le cas particulier o` u X prend un nombre d´enombrable de valeurs, il n’est pas du tout ´evident que νT (ω) ainsi d´efinie soit une probabilit´e sur (E, E). De ce fait, on a en fait besoin de trouver ce qu’on nomme une probabilit´e conditionnelle r´eguli`ere qui permette de d´efinir une v´eritable mesure al´eatoire. La d´efinition formelle suivante fixe le cadre. ´finition 3.23. Soit (E, E) un espace mesurable et T une variable al´eatoire ` De a valeurs dans (F, F). On appelle T -probabilit´e de transition sur E une application ν : Ω × E → [0, +∞] telle que (i) ∀A ∈ E, ω )→ ν(ω, A) est une variable al´eatoire σ(T )-mesurable (ii)P -p.s., ν(ω, dx) est une mesure de probabilit´e sur (E, E)
Pour une variable al´eatoire X `a valeurs dans un espace mesurable quelconque, on ne peut pas trouver en g´en´eral de loi conditionnelle r´eguli`ere. Le r´esultat suivant est de ce fait tr`es important. ´ore `me et De ´finition 3.24. Soient X une variable al´eatoire r´eelle ` The a valeurs dans (E, E) un espace m´etrique s´eparable muni de sa tribu bor´elienne, et T une variable al´eatoire. Une loi conditionnelle r´eguli`ere de X sachant T existe et est une T -probabilit´e de transition νT sur E telle que ∀f : E → R mesurable born´ee, & E(f (X)/T )(ω) = f (x)νT (ω)(dx)p.s.. E
Conditionnement
22
Preuve: Nous nous contenterons de faire la d´emonstration pour E = Rn et dans un deuxi`eme temps expliquerons comment elle s’´etend `a E = RN . Le lecteur que tout cela excite pourra chercher la d´emonstration g´en´erale dans la litt´erature. Cas E = Rn : On pose X = (X1 , . . . , Xn ). Pour r1 , . . . , rn des rationnels, d´efinissons Fω (r1 , . . . , rn ) = E(1Tni=1 (Xi
Donc on peut trouver un ensemble N tel que P (N ) = 0 tel que sur N c , F d´efinit une fonction croissante n-vari´ee sur Qn et continue `a gauche sur les rationnels. On peut de plus exiger (mˆeme raisonnement) que F tende vers 0 quand les ri tendent vers −∞ et vers 1 quand ils tendent vers +∞. On prolonge alors F `a Rn par continuit´e en posant, pour ω ∈ / N, Fω (x1 , . . . , xn ) =
sup
r1
Fω (r1 , . . . , rn ).
Pour ω ∈ N c , Fω d´etermine donc une mesure de probabilit´e sur E = Rn que nous notons νT (ω) soit la condition (ii) de la D´efinition 3.23. Montrons que la condition (i) est ´egalement satisfaite. Soit L = {A ∈ E, νT (., A) est σ(T )-mesurable et νT (A) = E(1A (X)/T ) p.s }. + L est clairement un λ-syst`eme (voir l’Exercice 1.3), qui contient par construction tous les pav´es ni=1 ] − ∞, ri [, ri ∈ Q qui forment clairement un π-syst`e*me. De ce fait, par le πλ-th´eor`eme, L contient la tribu bor´elienne B(Rn ). L’´egalit´e E(f (X)/T ) = E f (x)νT (dx)p.s. pour une fonction f mesurable born´ee est alors obtenue par un raisonnement classique. Cas E = RN : On note Xk les coordonn´ees du processus X. Reprenons la d´emonstration pr´ec´edente et notons, pour n ∈ N, F n la fonction F pr´ec´edente d´efinie sur Qn , en exigeant de plus que p.s. lim
r→+∞,r∈Q
Fωn+1 (r1 , . . . , rn , r) = Fωn (r1 , . . . , rn ).
(3.2)
On prolonge p.s. par continuit´e “`a gauche” Fn (ω) `a Rn comme pr´ec´edemment et notons µn (ω) la mesure de probabilit´e sur Rn associ´ee. La condition (3.2) revient `a dire que la suite (µn )(ω)n≥1 est compatible au sens du Th´eor`eme 1.18, et de ce fait d´etermine une unique probabilit´e νT (ω) sur n ! N N (R , B(R )). On a pour tout B = ] − ∞, rk [×R × R · · · × R × . . . , o` u les rk sont des rationnels, k=1
E(1B (X)/T ) = E(1X1
Un raisonnement identique `a celui du cas pr´ec´edent permet alors de conclure. La d´emonstration pr´ec´edente dans le cas E = Rn permet d’obtenir une preuve du Th´eor`eme de Kolmogorov 1.18 dans le cas E = RN (noter que ce th´eor`eme servait, dans la d´emonstration du Th´eor`eme 3.24, uniquement pour prouver le cas E = RN , et il n’y a donc pas d’entourloupette!). Corollaire 3.25. : (Th´eor`eme 1.18) Soit (µn )n≥0 une famille de probabilit´es sur les espaces produit (Rn+1 , B(R⊗n+1 )) qui satisfait la condition de compatibilit´e & µn (dx0 , . . . , dxn ) = µn+1 (dx0 , . . . , dxn , dxn+1 ). R
Alors il existe une unique probabilit´e P sur l’espace canonique RN telle que sous P le processus canon˜ admette les lois µn comme r´epartitions finies. ique X
Conditionnement
23
Preuve: Il suffit de d´emontrer que sur un espace de probabilit´e (Ω, F, P ), on peut trouver une suite de variables al´eatoires r´eelles (Xn )n≥0 telle que pour chaque n ≥ 0, la loi de (X0 , . . . , Xn ) est donn´ee par µn . La probabilit´e cherch´ee est alors la loi du processus. D’apr`es l’Exercice 3.8, sur un espace (Ω, F, P ), il existe une suite de variables al´eatoires ind´ependantes (Un )n≥0 de loi uniforme sur [0, 1]. Supposons que (X0 , . . . , Xn−1 ) soit construit tel que (X0 , . . . , Xk ) soit σ(U0 , . . . , Uk )-mesurable et suive la loi µk pour tout k ≤ n − 1, et construisons Xn . L’id´ee va ˆetre de se d´ebrouiller pour que cette variable admette la bonne loi conditionnelle sachant (X0 , . . . , Xn−1 ). Consid´erons un vecteur al´eatoire (Y0 , . . . , Yn ) sur un espace de probabilit´es (E, E, Q) de loi µn (on peut par exemple prendre E = Rn+1 , Q la mesure µn , et pour (Y0 , . . . , Yn ) le n + 1-uplet des projections canoniques). D’apr`es le premier cas de la d´emonstration du Th´eor`eme 3.24, il existe une loi conditionnelle de Yn sachant (Y0 , . . . , Yn−1 ), dont on note Fn (y; Y0 , . . . , Yn−1 ) la fonction de r´epartition. Pour (y0 , . . . , yn−1 ) donn´e, soit Gn (y; y0 , . . . , yn−1 ) = inf{t ∈ [0, 1], Fn (y; y0 , . . . , yn−1 ) ≥ t} l’inverse g´en´eralis´ee de Fn ; on sait (cf. la d´emonstration du Th´eor`eme 2.26), qu’alors Gn (Un ; y0 , . . . , yn−1 ) suit la loi Fn (dz; y0 , . . . , yn−1 ). Posons Xn = Gn (Un ; X0 , . . . , Xn−1 ). Il est clair que Xn est alors σ(U0 , . . . , Un ) mesurable. Examinons maintenant la loi de (X0 , . . . , Xn ). Soit ϕ : Rn+1 → R mesurable born´ee. E(ϕ(X0 , . . . , Xn )) = E(ϕ(X0 , . . . , Xn−1 , Gn (Un ; X0 , . . . , Xn−1 )). Comme Un et (X0 , . . . , Xn−1 ) sont ind´ependants, cette derni`ere expression se r´e´ecrit & E( ϕ(X0 , . . . , Xn−1 , z)Fn (dz; X0 , . . . , Xn−1 )) =
&
Rn+1
R
ϕ(x0 , . . . , xn−1 , z)Fn (dz; x0 , . . . , xn−1 )µn−1 (dx0 , . . . , dxn−1 ) & = ϕ(Y0 , . . . , Yn−1 , z)Fn (dz; Y0 , . . . , Yn−1 )dQ E×R
en utilisant le fait que (Y0 , . . . , Yn−1 ) suit la loi µn−1 grˆace `a la condition de compatibilit´e, et cette derni`ere expression est aussi EQ (EQ (ϕ(Y0 , . . . , Yn−1 , Yn )/(Y0 , . . . , Yn−1 ))) & = EQ (ϕ(Y0 , . . . , Yn−1 , Yn ) = ϕ(y0 , . . . , yn−1 , yn )µn+1 (dy0 , . . . , dyn ) Rn+1
ce qui prouve donc que (X0 , . . . , Xn ) suit la loi µn .
L’exemple le plus important o` u la d´efinition 3.24 s’applique est celui o` u le vecteur (X, T ) est ` a valeurs dans Rn+d et y admet une densit´e λ(x1 , . . . , xn ; t1 , . . . , td ). La loi conditionnelle se calcule alors tr`es ais´ement: Proposition 3.26. Soit (X, T ) un vecteur al´eatoire ` a valeurs dans Rn+d dont la loi admet une densit´e λ(x1 , . . . , xn ; t1 , . . . , td ). Alors la loi conditionnelle de X sachant T est p.s. la loi sur Rn admettant λ(x1 , . . . , xn ; T ) la densit´e αT (x1 , . . . , xn ) = & . λ(u1 , . . . , un ; T )du1 . . . dun Rn
Preuve: Naturellement, la loi al´eatoire `a densit´e pr´ec´edente est bien une T -probabilit´e de transition sur Rn . De plus, pour f et g bor´eliennes born´ees sur Rn , on peut ´ecrire grˆace au th´eor`eme de Fubini qui s’applique ici (puisque f et g sont born´ees), & & & E(f (X)g(T )) = f (x)g(t)λ(x, t)dxdt = g(t)[ f (x)αt (dx)]ρ(t)dt *
Rn ×Rd
Rd
Rn
o` u ρ(t) = * Rn λ(u1 , . . . , un ; t)du1 . . . dun est la densit´e*de la loi de T . De ce fait, on a E(f (X)g(T )) = E(g(T )[ Rn f (x)αT (dx)]) et donc p.s. E(f (X)/T ) = Rn f (x)αT (dx).
Conditionnement
24
Exercice 3.27. Soient T1 , T2 , . . . des variables al´eatoires de loi exponentielle de param`etre λ ind´ependantes. On pose T = T1 + · · · + Tn . a) D´eterminer la loi conditionnelle de T1 sachant T et calculer E(T1 /T ). b) Calculer E(T12 /T ) et E(T1 T2 /T ). Exercice 3.28. Soient X et Y deux variables al´eatoires ind´ependantes de mˆeme loi de densit´e f . Soit M = max(X, Y ). D´eterminer la loi conditionnelle de X sachant M .