Teorema del límite central

El Teorema del límite central (también llamado Teorema del límite central , Teorema del límite central o Teorema del límite centrado ) establece la convergencia en la ley de la suma de una serie de variables aleatorias a la distribución normal . Intuitivamente, este resultado afirma que una suma de variables aleatorias idénticas e independientes tiende (con mayor frecuencia) hacia una variable aleatoria gaussiana .

La primera demostración de este teorema, publicada en 1809, se debe a Pierre-Simon de Laplace , pero el caso particular donde las variables siguen la ley de Bernoulli con parámetro p = 0.5 se conocía desde el trabajo de De Moivre en 1733.

Este teorema y sus generalizaciones ofrecen una explicación de la omnipresencia de la ley normal en la naturaleza: muchos fenómenos se deben a la adición de un gran número de pequeñas perturbaciones aleatorias.

Dibujo

Este teorema es obvio si las variables aleatorias siguen una ley normal de expectativa (o media) μ: podemos imaginar que la suma de n variables puede seguir una ley normal con el parámetro n μ.

En el caso de variables que no siguen una distribución normal, el teorema puede parecer sorprendente al principio. Por lo tanto, vamos a hacer una ilustración que no requiere conocimientos especiales de estadística, sino solo de conteo .

Considere el juego de cara o cruz y ponga valores en los lados de la moneda, por ejemplo 0 para cara y 1 para cruz; nos interesa la suma de n impresiones. La moneda está equilibrada, cada lado tiene una probabilidad de 50/50 de ser extraída. Si hacemos un solo dibujo, entonces tenemos el dibujo # 1 (y no otro), y su resultado puede ser 0 o 1; sumamos un solo valor.

Resultados de un sorteo
Resultado del
sorteo n ° 1
Suma
0 0
1 1

Por tanto, tenemos n = 2 posibilidades para el valor de la suma, que aparecen con las siguientes frecuencias:

Frecuencias para un empate

Suma de valores
Numero
de apariciones
Frecuencia
0 1 1/2 = 0,5 (50%)
1 1 1/2 = 0,5 (50%)

Con dos sorteos, cada sorteo puede ser 0 o 1, lo que da la siguiente tabla:

Resultados de dos sorteos
Resultado del
sorteo n ° 1
Resultado del
sorteo n ° 2
Suma
0 0 0
0 1 1
1 0 1
1 1 2

tenemos n = 4 posibilidades, es decir la tabla de frecuencias.

Frecuencias para dos impresiones

Suma de valores
Numero
de apariciones
Frecuencia
0 1 1/4 = 0,25 (25%)
1 2 2/4 = 0,5 (50%)
2 1 1/4 = 0,25 (25%)

Y así enseguida :

Resultados y frecuencias de tres sorteos
Resultado del
sorteo n ° 1
Resultado del
sorteo n ° 2
Resultado del
sorteo n ° 3
Suma
Suma de valores
Numero
de apariciones
Frecuencia
0 0 0 0 0 1 0,125 (12,5%)
0 0 1 1 1 3 0,375 (37,5%)
0 1 0 1 2 3 0,375 (37,5%)
0 1 1 2 3 1 0,125 (12,5%)
1 0 0 1
1 0 1 2
1 1 0 2
1 1 1 3

Gráficamente, vemos que cuanto más aumenta el número de sorteos, más se acerca la curva de frecuencia a una curva de campana simétrica, característica de la densidad de probabilidad de la distribución normal .

Se obtiene un resultado similar al lanzar varios dados de seis caras (d6) y sumarlos, pero el conteo es más tedioso (hay seis valores por dado).

También obtenemos una curva de campana cuando agregamos dados con un número diferente de caras ( dados poliédricos ).

En todas las situaciones anteriores, tenemos leyes uniformes; y sin embargo, la suma de un gran número de eventos tiende gráficamente hacia una curva de campana simétrica. Y esto es cierto incluso cuando las leyes son diferentes (caso de dados poliédricos).

De hecho, no nos interesa el sorteo en sí, sino la suma del sorteo. Desde este punto de vista, varios sorteos son equivalentes, por lo que se puede obtener un valor de suma mediante varios sorteos; por ejemplo, para dos dados de seis caras (2d6), podemos obtener 7 por 1 + 6, 2 + 5, 3 + 4, 4 + 3, 5 + 2 y 6 + 1, hay seis tiradas equivalentes. Sin embargo, siempre hay más combinaciones que permiten obtener un valor medio que un valor extremo, lo que da la curva de campana.

El teorema del límite central

Estados

Sea X 1 , X 2 ,… una serie de variables aleatorias reales definidas en el mismo espacio de probabilidad, independientes e idénticamente distribuidas según la misma ley D. Suponga que la expectativa μ y la desviación estándar σ de D existen y son finitas con σ ≠ 0.

Considere la suma

S n = X 1 + X 2 +… + X n .

Entonces

Además, cuando n es lo suficientemente grande , la distribución normal es una buena aproximación de la distribución de S n .

Para formular esta aproximación matemáticamente, estableceremos

y

,

de modo que la expectativa y la desviación estándar de Z n son iguales a 0 y 1, respectivamente: se dice que la variable está centrada y reducida .

El teorema del límite central establece entonces que la secuencia de variables aleatorias Z 1 , Z 2 ,…, Z n ,… converge en derecho hacia una variable aleatoria Z , definida en el mismo espacio probabilizado, y de distribución normal centrada reducida cuando n tiende hacia infinito.

Esto significa que si Φ es la función de distribución de , entonces para todos los números reales z  :

o equivalente:

.

Prueba del teorema del límite central

Para un teorema de tal importancia en estadística y probabilidad aplicada, existe una demostración particularmente simple que utiliza funciones características . Esta demostración se parece a la de una de las leyes de los grandes números . Para una variable aleatoria Y con expectativa 0 y varianza 1, la función característica de Y admite la expansión limitada  :

.

Si Y i es igual , es fácil ver que la media centrada reducida de las observaciones:

X 1 , X 2 ,…, X n

es simple:

.

Según las propiedades elementales de las funciones características, la función característica de Z n es

cuando .

Pero este límite es la función característica de la ley normal centrada reducida , de la cual se deduce el teorema del límite central gracias al teorema de convergencia de Lévy , que afirma que la simple convergencia de las funciones características implica la convergencia en derecho .

Convergencia hacia el límite

La convergencia de la función de distribución de Z n es uniforme, en virtud del segundo teorema de Dini . Si el momento centrado de orden 3, existe y es finito, entonces la velocidad de convergencia es al menos de orden (ver teorema de Berry-Esseen ).

Imágenes de una ley suavizada por suma que muestran la distribución de la ley original y tres sumas sucesivas (obtenidas por convolución ):

En aplicaciones prácticas, este teorema hace posible, en particular, reemplazar una suma de variables aleatorias en un número suficientemente grande, pero terminó con una aproximación normal, generalmente más fácil de manejar. Entonces es interesante ver cómo la suma se acerca al límite. Los términos utilizados se explican en el artículo Variable aleatoria .

Una suma de variables continuas es una variable continua cuya densidad de probabilidad se puede comparar con la del límite normal.

Con una suma de variables discretas , a veces es conveniente definir una pseudodensidad de probabilidad, pero la herramienta más eficiente es la función de probabilidad representada por un gráfico de barras. Podemos ver gráficamente una cierta coherencia entre los dos diagramas, que es difícil de interpretar. En este caso, es más eficiente comparar las funciones de distribución .

Por otro lado, la aproximación normal es particularmente eficiente en la vecindad de valores centrales. Algunos incluso dicen que en términos de convergencia hacia la distribución normal, el infinito a menudo comienza en seis .

La precisión se deteriora a medida que uno se aleja de estos valores centrales. Esto es particularmente cierto para una suma de variables positivas por naturaleza: la distribución normal siempre muestra valores negativos con probabilidades bajas pero no nulas. Incluso si es menos impactante, sigue siendo cierto en todas las circunstancias: mientras que cualquier cantidad física está necesariamente acotada, la ley normal que cubre un intervalo infinito es solo una aproximación útil.

Finalmente, para un número dado de términos de la suma, la aproximación normal es tanto mejor cuanto que la distribución es más simétrica.

Aplicación a la estadística matemática

Este teorema de probabilidad tiene una interpretación en estadística matemática . Este último asocia una ley de probabilidad con una población. Por tanto, cada elemento extraído de la población se considera una variable aleatoria y, al reunir un número n de estas variables supuestamente independientes, se obtiene una muestra. La suma de estas variables aleatorias dividida por n da una nueva variable llamada media empírica. Esta, una vez reducida, tiende a una variable normal reducida cuando n tiende a infinito.

Otras formulaciones del teorema

Densidades de probabilidad

La densidad de probabilidad de la suma de varias variables independientes se obtiene por convolución de sus densidades (si existen). Así podemos interpretar el teorema del límite central como una formulación de las propiedades de las densidades de probabilidad sometidas a una convolución: en las condiciones establecidas previamente, la convolución de un cierto número de densidades de probabilidad tiende hacia la densidad normal cuando su número aumenta indefinidamente.

Como la función característica de una convolución es el producto de las funciones características de las variables en cuestión, el teorema del límite central se puede formular de otra manera: en las condiciones anteriores, el producto de las funciones características de varias densidades de probabilidad tiende hacia el función característica de la distribución normal cuando el número de variables aumenta indefinidamente.

Productos de variables aleatorias

El teorema del límite central nos dice qué esperar cuando se trata de las sumas de variables aleatorias independientes; pero ¿qué pasa con los productos? Bueno, el logaritmo de un producto (con factores estrictamente positivos) es la suma de los logaritmos de los factores, por lo que el logaritmo de un producto de variables aleatorias (con valores estrictamente positivos) tiende a una distribución normal, lo que resulta en una distribución logarítmica normal para el producto en sí.

Muchas cantidades físicas (especialmente masa y longitud, esto es una cuestión de dimensión, no puede ser negativa) son producto de diferentes factores aleatorios , por lo que siguen una distribución logarítmica normal.

Generalizaciones del teorema del límite central

El teorema del límite central admite varias generalizaciones que dan la convergencia de sumas de variables aleatorias bajo supuestos mucho más débiles. Estas generalizaciones no requieren leyes idénticas, sino condiciones que aseguren que ninguna de las variables ejerza una influencia significativamente más importante que las demás. Tales son las condiciones de Lindeberg y condicionan a Lyapounov . Otras generalizaciones permiten incluso una dependencia "débil". Además, una generalización de Gnedenko y Kolmogorov establece que la suma de un cierto número de variables aleatorias con una cola de distribución decreciente según con (por lo tanto, tiene una varianza infinita) tiende hacia una ley de Levy simétrica y estable truncada cuando el número de variables aumenta.

Condición de Liapunov

Podemos, a costa de una formulación algo menos simple, eliminar la hipótesis según la cual las variables son de la misma ley. Sin embargo, las variables siguen siendo independientes: sea, por tanto, una serie de variables aleatorias definidas en el mismo espacio de probabilidad, independientes . Suponga que, para , tiene una expectativa finita y una desviación estándar finita , y sea

y

.

Supongamos que para algunos la condición Liapounov

se satisface, entonces la suma normalizada de converge hacia una distribución normal centrada reducida, es decir:

.

Condición de Lindeberg

Con las mismas definiciones y las mismas notaciones que antes, podemos reemplazar la condición de Liapunov por la siguiente, que es más débil.

Teorema ( Lindeberg , 1920)  -  Si, para todo ε> 0

donde 1 {…} es la función indicadora , entonces la ley de converge a la ley normal centrada reducida .

Caso de variables dependientes

Hay algunos teoremas que tratan el caso de sumas de variables aleatorias dependientes reales, por ejemplo, el teorema del límite central para secuencias dependientes de m , el teorema del límite central para martingalas y el teorema del límite central para procesos de mezcla .

Caso de vectores aleatorios

Existe una generalización a vectores aleatorios independientes de la misma ley, cuyos componentes son cuadrados integrables, siendo el límite entonces un vector gaussiano. Una primera versión de este teorema del límite del vector central, debida a Pierre-Simon de Laplace , apareció en 1812. Entre las muchas consecuencias de este teorema, podemos contar, por ejemplo, la convergencia hacia la ley de χ ² , crucial, por ejemplo, para sus aplicaciones en estadística, o la convergencia de caminatas aleatorias hacia el movimiento browniano.

Sobre la denominación de este teorema

La denominación "teorema del límite central" se refiere a un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem [ Sobre el teorema [relativo a la noción de] límite central del cálculo probabilístico y los momentos del problema ) . Históricamente, y de acuerdo con la traducción del título, el teorema es, por tanto, central, de ahí el nombre de “teorema del límite central”.

Sin embargo, en la literatura matemática francesa, se pueden encontrar otros nombres, como “teorema del límite central”, “teorema del límite central” o “teorema del límite centrado”. Una justificación presentada por algunos autores es que el adjetivo "central" se aplica al centro de la distribución, en contraposición a su cola .

Notas y referencias

  1. Pierre-Simon Laplace , "  Memoria sobre las aproximaciones de fórmulas que son funciones de números muy grandes y sobre su aplicación a probabilidades  ", Memorias de la clase de ciencias matemáticas y físicas del Institut de France ,1809, p.  353-415 ( lea en línea [PDF] , consultado el 18 de agosto de 2012 )
  2. Pierre-Simon Laplace , "  Suplemento a la disertación sobre aproximaciones de fórmulas que son funciones de números muy grandes  ", Memorias de la Clase de Ciencias Físicas y Matemáticas del Institut de France ,1809, p.  559-565 ( lea en línea [PDF] , consultado el 18 de agosto de 2012 )
  3. (en) Stephen M. Stigler , La historia de la estadística: La medición de la incertidumbre antes de 1900 , Harvard Belknap Press de Harvard University Press,1990, 1 st  ed. , 432  p. ( ISBN  978-0-674-40341-3 y 067440341X , leer en línea ) , cap.  2 ("Probabilistas y la medición de la incertidumbre"). El caso especial de las variables de Bernoulli se llama teorema de Moivre-Laplace . Su demostración por De Moivre, en el caso p = 0,5, sólo fue posible a través de la demostración, todavía por De Moivre, de la fórmula de Stirling .
  4. Ilustración extraída del libro Calcul of Uncertainties
  5. (en) William Feller , Introducción a la teoría de la probabilidad y sus aplicaciones , vol.  2, Nueva York / Chichester / Brisbane, etc., Wiley ,1991, 2 nd  ed. , 669  p. ( ISBN  0-471-25709-5 y 978-0471257097 ) , pág.  262-263.
  6. Pierre-Simon de Laplace , Analítica Teoría de la Probabilidad , 2 ª  edición, 1812, Libro II, capítulo IV, sección 21. [1]
  7. (en) Lucien Le Cam , “  El teorema del límite central en torno a 1935  ” , Statistical Science , vol.  1, n o  1,1986, p.  78-91 ( DOI  10.2307 / 2245503 , leer en línea )
  8. Jean-Yves Ouvrard , Probabilities 1 license capes , París, Cassini, 244  p. ( ISBN  978-2-84225-130-7 )

Ver también

Artículo relacionado

Método delta

enlaces externos