Processus aléatoires Thomas Budzinski ENS Paris, 2018-2019 Bureau V2 thomas.bud

Processus aléatoires Thomas Budzinski ENS Paris, 2018-2019 Bureau V2 thomas.budzinski@ens.fr TD 6 : Conditionnement, martingales, théorème d’arrêt Corrigé Mercredi 17 Octobre 1 Espérance conditionnelle dans L2 Exercice 1 On se donne deux variables aléatoires réelles positives X et Y , et on suppose que E[X|Y ] = Y et E[Y |X] = X. 1. Montrer que si X et Y sont dans L2, alors X = Y p.s.. 2. On se place maintenant dans le cas général. En étudiant des quantités de la forme E [Y 1X≤a], montrer que X = Y p.s.. Solution de l’exercice 1 1. On calcule E  (X −Y )2 = E  X2 + E  Y 2 −2E [XY ] . Or E[XY ] = E [XE[Y |X]] = E  X2 et de même E[XY ] = E  Y 2 , donc E  (X −Y )2 = 0 et X = Y p.s.. On peut aussi le voir autrement en utilisant l’interprétation de l’espérance conditionnelle dans L2 : il existe deux projections orthogonales p et q telles que p(X) = Y et q(Y ) = X, donc ∥X∥= ∥q(Y )∥≤∥Y ∥ et de même dans l’autre sens. On a donc égalité, donc Y ∈Im(q), donc X = q(Y ) = Y . 2. Soit a ≥0. L’égalité E [X1X≤a] = E [Y 1X≤a] est une conséquence immédiate de la définition de l’espérance conditionnelle. Notons que le membre de gauche est fini, donc le membre de droite l’est aussi. L’égalité se réécrit E [(X −Y )1X≤a] = 0, où la variable (X −Y )1X≤a est intégrable car c’est la différence de deux variables intégrables. De manière symétrique, on obtient E [(X −Y )1Y ≤a] = 0 donc, en faisant la différence des deux, E [(X −Y ) (1Y ≤a −1X≤a)] = 0. Or, si 1Y ≤a −1X≤a > 0 alors Y ≤a < X, et si 1Y ≤a −1X≤a < 0 alors Y > a ≥Y . La variable (X −Y ) (1Y ≤a −1X≤a) est donc positive. Comme elle est d’espérance nulle, elle est nulle p.s.. On en déduit 1Y ≤a = 1X≤a p.s.. 1 Presque sûrement, ceci est vrai pour tout a rationnel positif, donc presque sûrement il n’existe pas de a rationnel tel que X ≤a < Y , d’où X ≥Y p.s.. On a de même l’inégalité inverse, d’où X = Y p.s.. Exercice 2 (Convergence L2 des martingales rétrogrades) Soit (Fn)n≥0 une suite décroissante de sous-tribus de F, avec F0 = F. Soit X une variable aléatoire de carré intégrable. 1. Montrer que les variables E[X|Fn] −E[X|Fn+1] sont orthogonales dans L2, et que la série X n≥0 (E[X|Fn] −E[X|Fn+1]) converge dans L2. 2. Montrer que si F∞= T n≥0 Fn, on a lim n→∞E[X|Fn] = E[X|F∞] dans L2. Solution de l’exercice 2 1. On calcule, pour m < n : E [(E[X|Fn+1] −E[X|Fn]) (E[X|Fm+1] −E[X|Fm])] = E [E[X|Fn+1]E[X|Fm+1] −E[X|Fn+1]E[Y |Fm] −E[X|Fn]E[Y |Fm+1] + E[X|Fn]E[X|Fm]] = E  E[X|Fm+1]2 −E[X|Fm]2 −E[X|Fm+1]2 + E[X|Fm]2 = 0, ce qui montre que la famille (E[X|Fn] −E[X|Fn+1])n≥0 est orthogonale. De plus, pour m = n, on a E h (E[X|Fn+1] −E[X|Fn])2i = E  E[X|Fn]2 −E[X|Fn+1]2 , donc par téléscopage P E h (E(X|Fn+1) −E(X|Fn))2i ≤E h E [X|F0]2i = E  X2 < +∞, d’où la convergence de la série dans L2, par critère de Cauchy dans L2. 2. On déduit de la question précédente que E [X|Fn] converge, on note Y la variable aléatoire limite. On n’a plus qu’à montrer que Y = E [X|F∞]. Soit Z une variable F∞-mesurable bornée. En particulier, pour tout n, elle est Fn-mesurable donc E [E [X|Fn] Z] = E [XZ] . Quand n tend vers +∞, le membre de gauche tend vers E[Y Z] (en utilisant la convergence de E [X|Fn] et l’inégalité de Cauchy-Schwarz), d’où E[Y Z] = E[XZ], d’où Y = E [X|F∞]. Remarque Il est aussi possible de résoudre entièrement l’exercice en utilisant seulement le fait que L2 est un espace de Hilbert. On vérifie facilement que le sous-espace des variables F∞-mesurables est l’intersection décroissantes des sous-espaces des variables Fn-mesurables. Il suffit donc de montrer que dans un espace de Hilbert, les projections orthogonales sur une suite décroissante de sous-espaces fermés convergent vers la projection orthogonale sur l’intersection de ces sous-espaces. 2 Lois conditionnelles Exercice 3 (Un calcul de loi conditionnelle) Soient X1, . . . , Xn des variables i.i.d. exponentielles de paramètre 1, et S = Pn i=1 Xi. Déterminer la loi conditionnelle de X1 sachant S. 2 Solution de l’exercice 3 Soient f et g deux fonctions mesurables bornées. On cherche à calculer E [g(X1)|S]. Pour cela, on calcule E [g(X1)f(S)] = Z Rn + g(x1)f(x1 + · · · + xn)λne−λx1 . . . e−λxndx1 . . . dxn. En faisant le changement de variables si = x1 + · · · + xi, on obtient E [g(X1)f(S)] = Z 0≤s1≤···≤sn g(s1)f(sn)λne−λsnds1 . . . dsn = λn (n −2)! Z 0≤x≤s g(x)f(s)(s −x)n−2e−λsdxds, en intégrant selon s2, . . . , sn−1. En prenant pour g la fonction constante égale à 1, on obtient E [f(S)] = λn (n −1)! Z +∞ 0 f(s)sn−1e−λsds, donc S a pour densité par rapport à la mesure de Lebesgue λn (n −1)!sn−1e−λs. On cherche à faire apparaître cette densité dans l’expression trouvée précédemment : E [g(X1)f(S)] = λn (n −1)! Z +∞ 0 f(s)sn−1e−λs Z s 0 g(x)(n −1)(s −x)n−2 sn−1 dx  ds = E " f(S) Z S 0 g(x)(n −1)(S −x)n−2 Sn−1 dx # . On a donc E [g(X1)|S] = Z S 0 g(x)(n −1)(S −x)n−2 Sn−1 dx. Ceci est vrai pour toute fonction g mesurable bornée, donc la loi conditionnelle de X1 sachant S a pour densité (n −1)(S −x)n−2 Sn−1 par rapport à la mesure de Lebesgue. Notons qu’en particulier, pour n = 2, cette densité est constante. Ainsi, conditionnellement à X1 + X2, la variable X1 est uniforme sur [0, X1 + X2]. Exercice 4 (Lois conditionnelles et indépendance) Soient X et Y deux variables aléatoires telles que la loi conditionnelle de X sachant Y existe. Montrer que cette loi conditionnelle est déterministe si et seulement X et Y sont indépendantes. Solution de l’exercice 4 Notons tout d’abord que ce résultat est intuitif : dire que la loi de X sachant Y est déterministe revient à dire que connaître Y ne donne aucune information sur X, ce qui est plus ou moins la définition de l’indépendance. Plus précisément, supposons que X est indépendante de Y , et notons ν la loi de Y . On veut montrer que la loi conditionnelle de X sachant Y est ν (qui est, en particulier, déterministe). Pour cela, par définition des lois conditionnelles, il suffit de montrer que pour toute fonction f mesurable positive, on a E [f(X)|Y ] = Z f dν. Par définition de l’espérance conditionnelle, il suffit donc de montrer que pour fonction g mesurable positive, on a E [g(Y )f(X)] = E  g(Y ) Z f dν  . 3 Or, en utilisant l’indépendance puis le fait que ν est la loi de X, on a E [g(Y )f(X)] = E[g(Y )]E[f(X)] = E[g(Y )] Z f dν = E  g(Y ) Z f dν  , ce qui prouve un des deux sens. Pour l’autre sens, les calculs sont essentiellement les mêmes. Si la loi de X sachant Y est déterministe et égale à ν, alors pour toutes fonctions f et g mesurables positives, on a E [g(Y )f(X)] = E  g(Y ) Z f dν  = E[g(Y )] × Z f dν. En particulier, en prenant g = 1, on obtient E[f(X)] = R f dν, donc ν est aussi la loi de X, donc finalement E [g(Y )f(X)] = E[g(Y )]E[f(X)] pour toutes f et g mesurables positives. Par conséquent, X et Y sont bien indépendantes. 3 Temps d’arrêt Exercice 5 (Vrai ou faux) Soit (Sn) une marche aléatoire simple symétrique sur Z et Fn = σ(S0, S1, . . . , Sn). Lesquelles des variables suivantes sont des temps d’arrêt pour (Fn) ? 1. T1 = min{n ≥0|Sn = 2018}, 2. T2 = min{n ≥2018|Sn = Sn−2018}, 3. T3 = min{n ≥0|Sn = Sn+2018}, 4. T4 = min{n ≥T1|Sn = 0}, 5. T5 = max{n ∈[ [0, 2018] ]|Sn = 0}, 6. T6 = min{n ∈[ [0, 2018] ]|∀m ∈[ [0, 2018] ], Sm ≤Sn}. Solution de l’exercice 5 Les temps T1, T2 et T4 sont des temps d’arrêts, car à chaque fois l’événement {T ≤n} ne dépend que de (S0, S1, . . . , Sn). En revanche, T3, T5 et T6 n’en sont pas puisque les événements {T3 = 0}, {T5 = 0} et {T6 = 0} ne sont pas F0-mesurables. Exercice 6 (Ce qui peut arriver, arrivera) Soit T un temps d’arrêt pour une filtration (Fn)n≥0. On suppose qu’il existe ε > 0 et n0 ∈N∗tels que pour tout n ≥0, on a p.s. P(T ≤n + n0|Fn) > uploads/Litterature/ td6-processus-corrige.pdf

  • 13
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager