convergence de variables aléatoires


Wikipédia en français - L'encyclopédie libreDownload this dictionary
Convergence de variables aléatoires
Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe). Ce résultat est connu sous le nom de loi forte des grands nombres.

Pour la suite, voir Wikipédia.org…


© Cet article se sert du contenu de Wikipédia® et est autorisé sous les termes de la Licence de Documentation libre GNU et est distribué sous les termes de la licence Creative Commons Paternité-Partage des Conditions Initiales à l'Identique 3.0 non transposé.