En théorie des probabilités, le théorème des deux séries de Kolmogorov est un résultat sur la convergence des séries aléatoires. Il résulte de l'inégalité de Kolmogorov et est utilisé dans une preuve de la loi forte des grands nombres .
Énoncé du théorème
Soit
une suite de variables aléatoires indépendantes d'espérance
et de variance
, tel que
et
convergent dans ℝ. Alors
converge dans ℝ presque sûrement .
Preuve
Supposons sans perte de généralité que
. Posons
. Nous allons voir que
presque sûrement
Pour chaque
,
Ainsi, pour chaque
et
,
Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .
En supposant que
converge, il s'ensuit que le dernier terme tend vers 0 lorsque
, pour chaque
.
Références
- Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp. 60–69.
- M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
- W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9