Dans la
théorie des probabilités, il existe différentes notions de
convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de
suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en
statistique et dans l'étude des
processus stochastiques. Par exemple, la moyenne de
n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe). Ce résultat est connu sous le nom de
loi forte des grands nombres.