En théorie des probabilités , la formule de Wald est une identité qui donne l'expression de l'espérance d'une somme aléatoire .
Le nom de cette formule vient du mathématicien hongrois Abraham Wald .
Théorème
Soit
(
X
n
)
n
≥
1
{\displaystyle (X_{n})_{n\geq 1}}
une suite de variables aléatoires .
Soit
N
{\displaystyle N\ }
une variable aléatoire à valeurs dans
N
.
{\displaystyle \mathbb {N} .}
On pose :
S
n
=
X
1
+
X
2
+
⋯
+
X
n
,
{\displaystyle S_{n}=X_{1}+X_{2}+\dots +X_{n},\quad }
S
N
=
X
1
+
X
2
+
⋯
+
X
N
=
∑
X
n
1
1
1
≤
n
≤
N
.
{\displaystyle S_{N}=X_{1}+X_{2}+\dots +X_{N}=\sum \ X_{n}\ 1\!\!1_{1\leq n\leq N}.}
Formule de Wald — On suppose que :
(
X
n
)
n
≥
1
{\displaystyle (X_{n})_{n\geq 1}}
est une suite de variables aléatoires de même loi, indépendantes ,
les
X
i
{\displaystyle X_{i}\ }
et
N
{\displaystyle N\ }
sont intégrables ,
et on suppose que l'une des deux conditions suivantes est remplie :
N
{\displaystyle N\ }
est un temps d'arrêt adapté à la suite
(
X
i
)
{\displaystyle (X_{i})\ }
. En d'autres termes l'événement
{
N
=
n
}
{\displaystyle \left\{N=n\right\}\ }
est entièrement déterminé par
(
X
1
,
X
2
,
.
.
.
,
X
n
)
,
{\displaystyle (X_{1},X_{2},...,X_{n}),}
ou bien :
N
{\displaystyle N\ }
est indépendant de la suite
(
X
i
)
{\displaystyle (X_{i})\ }
.
Alors on a :
E
[
S
N
]
=
E
[
N
]
E
[
X
1
]
.
{\displaystyle \mathbb {E} \left[S_{N}\right]=\mathbb {E} \left[N\right]\mathbb {E} \left[X_{1}\right].}
Et si on note :
G
S
N
{\displaystyle G_{S_{N}}}
la fonction génératrice de
S
N
{\displaystyle {S_{N}}}
.
G
N
{\displaystyle G_{N}}
la fonction génératrice de
N
{\displaystyle N}
.
G
X
{\displaystyle G_{X}}
la fonction génératrice des
X
i
{\displaystyle X_{i}}
.
On a aussi :
G
S
N
=
G
N
∘
G
X
{\displaystyle G_{S_{N}}=G_{N}\circ G_{X}}
On peut englober les deux hypothèses alternatives ci-dessus, ainsi que l'indépendance de la suite
(
X
i
)
,
{\displaystyle (X_{i}),\ }
dans la formulation suivante :
Le premier jeu d'hypothèses découle alors du choix
F
n
=
σ
(
{
N
=
0
}
,
X
1
,
X
2
,
.
.
.
,
X
n
)
,
F
0
=
σ
(
{
N
=
0
}
)
,
{\displaystyle {\mathcal {F}}_{n}=\sigma (\{N=0\},X_{1},X_{2},...,X_{n}),\ {\mathcal {F}}_{0}=\sigma (\{N=0\}),}
et le second jeu d'hypothèses découle du choix
F
n
=
σ
(
N
,
X
1
,
X
2
,
.
.
.
,
X
n
)
,
F
0
=
σ
(
N
)
.
{\displaystyle {\mathcal {F}}_{n}=\sigma (N,X_{1},X_{2},...,X_{n}),\ \ {\mathcal {F}}_{0}=\sigma (N).\ }
Encore plus généralement, les deux formules de Wald ci-dessus sont des cas particuliers de la formule d'arrêt pour les martingales .
Démonstration
La variable aléatoire
Z
=
∑
|
X
n
|
1
1
1
≤
n
≤
N
{\displaystyle Z=\sum \ |X_{n}|\ 1\!\!1_{1\leq n\leq N}}
est intégrable. En effet
{
n
≤
N
}
c
=
{
n
−
1
≥
N
}
=
⋃
k
=
0
n
−
1
{
N
=
k
}
∈
F
n
−
1
.
{\displaystyle \{n\leq N\}^{c}=\{n-1\geq N\}=\bigcup _{k=0}^{n-1}\{N=k\}\in {\mathcal {F}}_{n-1}.}
Ainsi, pour
n
≥
1
,
{\displaystyle n\geq 1,\ }
en vertu de l'hypothèse d'indépendance entre la tribu
F
n
−
1
{\displaystyle {\mathcal {F}}_{n-1}\ }
et la variable
X
n
,
{\displaystyle X_{n},\ }
E
[
|
X
n
|
1
1
1
≤
n
≤
N
]
=
E
[
|
X
n
|
]
E
[
1
1
n
≤
N
]
=
E
[
|
X
1
|
]
P
(
n
≤
N
)
.
{\displaystyle \mathbb {E} \left[|X_{n}|\ 1\!\!1_{1\leq n\leq N}\right]\,=\,\mathbb {E} \left[|X_{n}|\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\,=\,\mathbb {E} \left[|X_{1}|\right]\,\mathbb {P} \left(n\leq N\right).}
Or
N
{\displaystyle N\ }
est intégrable si et seulement si la série de terme général
P
(
n
≤
N
)
{\displaystyle \mathbb {P} \left(n\leq N\right)\ }
est convergente (et la somme de cette série est
E
[
N
]
{\displaystyle \mathbb {E} [N]\ }
). En vertu du théorème de Beppo-Levi , et de l'hypothèse d'intégrabilité faite sur N , la variable Z est intégrable, et on peut donc s'en servir comme majorant pour appliquer le théorème de convergence dominée ou le théorème de Fubini à
S
N
{\displaystyle S_{N}\ }
:
E
[
S
N
]
=
E
[
∑
n
≥
1
X
n
1
1
n
≤
N
]
=
∑
n
≥
1
E
[
X
n
1
1
n
≤
N
]
=
∑
n
≥
1
E
[
X
n
]
E
[
1
1
n
≤
N
]
=
E
[
X
1
]
∑
n
≥
1
P
(
n
≤
N
)
=
E
[
X
1
]
E
[
N
]
.
{\displaystyle {\begin{aligned}\mathbb {E} \left[S_{N}\right]&=\mathbb {E} \left[\sum _{n\geq 1}\,X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\\&=\,\mathbb {E} \left[X_{1}\right]\,\sum _{n\geq 1}\,\mathbb {P} \left(n\leq N\right)\\&=\,\mathbb {E} \left[X_{1}\right]\,\mathbb {E} \left[N\right].\end{aligned}}}
Bibliographie
(en) Abraham Wald , « On Cumulative Sums of Random Variables », The Annals of Mathematical Statistics , vol. 15, no 3, septembre 1944 , p. 283–296 (DOI 10.1214/aoms/1177731235 , lire en ligne )
(en) David Williams , Probability With Martingales , Cambridge University Press, 14 février 1991 , 272 p. (ISBN 978-0-521-40605-5, lire en ligne )