El Teorema del límite central (también llamado Teorema del límite central , Teorema del límite central o Teorema del límite centrado ) establece la convergencia en la ley de la suma de una serie de variables aleatorias a la distribución normal . Intuitivamente, este resultado afirma que una suma de variables aleatorias idénticas e independientes tiende (con mayor frecuencia) hacia una variable aleatoria gaussiana .
La primera demostración de este teorema, publicada en 1809, se debe a Pierre-Simon de Laplace , pero el caso particular donde las variables siguen la ley de Bernoulli con parámetro p = 0.5 se conocía desde el trabajo de De Moivre en 1733.
Este teorema y sus generalizaciones ofrecen una explicación de la omnipresencia de la ley normal en la naturaleza: muchos fenómenos se deben a la adición de un gran número de pequeñas perturbaciones aleatorias.
Este teorema es obvio si las variables aleatorias siguen una ley normal de expectativa (o media) μ: podemos imaginar que la suma de n variables puede seguir una ley normal con el parámetro n μ.
En el caso de variables que no siguen una distribución normal, el teorema puede parecer sorprendente al principio. Por lo tanto, vamos a hacer una ilustración que no requiere conocimientos especiales de estadística, sino solo de conteo .
Considere el juego de cara o cruz y ponga valores en los lados de la moneda, por ejemplo 0 para cara y 1 para cruz; nos interesa la suma de n impresiones. La moneda está equilibrada, cada lado tiene una probabilidad de 50/50 de ser extraída. Si hacemos un solo dibujo, entonces tenemos el dibujo # 1 (y no otro), y su resultado puede ser 0 o 1; sumamos un solo valor.
Resultado del sorteo n ° 1 |
Suma |
---|---|
0 | 0 |
1 | 1 |
Por tanto, tenemos n = 2 posibilidades para el valor de la suma, que aparecen con las siguientes frecuencias:
Suma de valores |
Numero de apariciones |
Frecuencia |
---|---|---|
0 | 1 | 1/2 = 0,5 (50%) |
1 | 1 | 1/2 = 0,5 (50%) |
Con dos sorteos, cada sorteo puede ser 0 o 1, lo que da la siguiente tabla:
Resultado del sorteo n ° 1 |
Resultado del sorteo n ° 2 |
Suma |
---|---|---|
0 | 0 | 0 |
0 | 1 | 1 |
1 | 0 | 1 |
1 | 1 | 2 |
tenemos n = 4 posibilidades, es decir la tabla de frecuencias.
Suma de valores |
Numero de apariciones |
Frecuencia |
---|---|---|
0 | 1 | 1/4 = 0,25 (25%) |
1 | 2 | 2/4 = 0,5 (50%) |
2 | 1 | 1/4 = 0,25 (25%) |
Y así enseguida :
Resultado del sorteo n ° 1 |
Resultado del sorteo n ° 2 |
Resultado del sorteo n ° 3 |
Suma | Suma de valores |
Numero de apariciones |
Frecuencia | |
---|---|---|---|---|---|---|---|
0 | 0 | 0 | 0 | 0 | 1 | 0,125 (12,5%) | |
0 | 0 | 1 | 1 | 1 | 3 | 0,375 (37,5%) | |
0 | 1 | 0 | 1 | 2 | 3 | 0,375 (37,5%) | |
0 | 1 | 1 | 2 | 3 | 1 | 0,125 (12,5%) | |
1 | 0 | 0 | 1 | ||||
1 | 0 | 1 | 2 | ||||
1 | 1 | 0 | 2 | ||||
1 | 1 | 1 | 3 |
Gráficamente, vemos que cuanto más aumenta el número de sorteos, más se acerca la curva de frecuencia a una curva de campana simétrica, característica de la densidad de probabilidad de la distribución normal .
Se obtiene un resultado similar al lanzar varios dados de seis caras (d6) y sumarlos, pero el conteo es más tedioso (hay seis valores por dado).
También obtenemos una curva de campana cuando agregamos dados con un número diferente de caras ( dados poliédricos ).
En todas las situaciones anteriores, tenemos leyes uniformes; y sin embargo, la suma de un gran número de eventos tiende gráficamente hacia una curva de campana simétrica. Y esto es cierto incluso cuando las leyes son diferentes (caso de dados poliédricos).
De hecho, no nos interesa el sorteo en sí, sino la suma del sorteo. Desde este punto de vista, varios sorteos son equivalentes, por lo que se puede obtener un valor de suma mediante varios sorteos; por ejemplo, para dos dados de seis caras (2d6), podemos obtener 7 por 1 + 6, 2 + 5, 3 + 4, 4 + 3, 5 + 2 y 6 + 1, hay seis tiradas equivalentes. Sin embargo, siempre hay más combinaciones que permiten obtener un valor medio que un valor extremo, lo que da la curva de campana.
Sea X 1 , X 2 ,… una serie de variables aleatorias reales definidas en el mismo espacio de probabilidad, independientes e idénticamente distribuidas según la misma ley D. Suponga que la expectativa μ y la desviación estándar σ de D existen y son finitas con σ ≠ 0.
Considere la suma
S n = X 1 + X 2 +… + X n .Entonces
Además, cuando n es lo suficientemente grande , la distribución normal es una buena aproximación de la distribución de S n .
Para formular esta aproximación matemáticamente, estableceremos
y
,de modo que la expectativa y la desviación estándar de Z n son iguales a 0 y 1, respectivamente: se dice que la variable está centrada y reducida .
El teorema del límite central establece entonces que la secuencia de variables aleatorias Z 1 , Z 2 ,…, Z n ,… converge en derecho hacia una variable aleatoria Z , definida en el mismo espacio probabilizado, y de distribución normal centrada reducida cuando n tiende hacia infinito.
Esto significa que si Φ es la función de distribución de , entonces para todos los números reales z :
o equivalente:
.Para un teorema de tal importancia en estadística y probabilidad aplicada, existe una demostración particularmente simple que utiliza funciones características . Esta demostración se parece a la de una de las leyes de los grandes números . Para una variable aleatoria Y con expectativa 0 y varianza 1, la función característica de Y admite la expansión limitada :
.Si Y i es igual , es fácil ver que la media centrada reducida de las observaciones:
X 1 , X 2 ,…, X nes simple:
.Según las propiedades elementales de las funciones características, la función característica de Z n es
cuando .Pero este límite es la función característica de la ley normal centrada reducida , de la cual se deduce el teorema del límite central gracias al teorema de convergencia de Lévy , que afirma que la simple convergencia de las funciones características implica la convergencia en derecho .
La convergencia de la función de distribución de Z n es uniforme, en virtud del segundo teorema de Dini . Si el momento centrado de orden 3, existe y es finito, entonces la velocidad de convergencia es al menos de orden (ver teorema de Berry-Esseen ).
Imágenes de una ley suavizada por suma que muestran la distribución de la ley original y tres sumas sucesivas (obtenidas por convolución ):
En aplicaciones prácticas, este teorema hace posible, en particular, reemplazar una suma de variables aleatorias en un número suficientemente grande, pero terminó con una aproximación normal, generalmente más fácil de manejar. Entonces es interesante ver cómo la suma se acerca al límite. Los términos utilizados se explican en el artículo Variable aleatoria .
Una suma de variables continuas es una variable continua cuya densidad de probabilidad se puede comparar con la del límite normal.
Con una suma de variables discretas , a veces es conveniente definir una pseudodensidad de probabilidad, pero la herramienta más eficiente es la función de probabilidad representada por un gráfico de barras. Podemos ver gráficamente una cierta coherencia entre los dos diagramas, que es difícil de interpretar. En este caso, es más eficiente comparar las funciones de distribución .
Por otro lado, la aproximación normal es particularmente eficiente en la vecindad de valores centrales. Algunos incluso dicen que en términos de convergencia hacia la distribución normal, el infinito a menudo comienza en seis .
La precisión se deteriora a medida que uno se aleja de estos valores centrales. Esto es particularmente cierto para una suma de variables positivas por naturaleza: la distribución normal siempre muestra valores negativos con probabilidades bajas pero no nulas. Incluso si es menos impactante, sigue siendo cierto en todas las circunstancias: mientras que cualquier cantidad física está necesariamente acotada, la ley normal que cubre un intervalo infinito es solo una aproximación útil.
Finalmente, para un número dado de términos de la suma, la aproximación normal es tanto mejor cuanto que la distribución es más simétrica.
Este teorema de probabilidad tiene una interpretación en estadística matemática . Este último asocia una ley de probabilidad con una población. Por tanto, cada elemento extraído de la población se considera una variable aleatoria y, al reunir un número n de estas variables supuestamente independientes, se obtiene una muestra. La suma de estas variables aleatorias dividida por n da una nueva variable llamada media empírica. Esta, una vez reducida, tiende a una variable normal reducida cuando n tiende a infinito.
La densidad de probabilidad de la suma de varias variables independientes se obtiene por convolución de sus densidades (si existen). Así podemos interpretar el teorema del límite central como una formulación de las propiedades de las densidades de probabilidad sometidas a una convolución: en las condiciones establecidas previamente, la convolución de un cierto número de densidades de probabilidad tiende hacia la densidad normal cuando su número aumenta indefinidamente.
Como la función característica de una convolución es el producto de las funciones características de las variables en cuestión, el teorema del límite central se puede formular de otra manera: en las condiciones anteriores, el producto de las funciones características de varias densidades de probabilidad tiende hacia el función característica de la distribución normal cuando el número de variables aumenta indefinidamente.
Productos de variables aleatoriasEl teorema del límite central nos dice qué esperar cuando se trata de las sumas de variables aleatorias independientes; pero ¿qué pasa con los productos? Bueno, el logaritmo de un producto (con factores estrictamente positivos) es la suma de los logaritmos de los factores, por lo que el logaritmo de un producto de variables aleatorias (con valores estrictamente positivos) tiende a una distribución normal, lo que resulta en una distribución logarítmica normal para el producto en sí.
Muchas cantidades físicas (especialmente masa y longitud, esto es una cuestión de dimensión, no puede ser negativa) son producto de diferentes factores aleatorios , por lo que siguen una distribución logarítmica normal.
El teorema del límite central admite varias generalizaciones que dan la convergencia de sumas de variables aleatorias bajo supuestos mucho más débiles. Estas generalizaciones no requieren leyes idénticas, sino condiciones que aseguren que ninguna de las variables ejerza una influencia significativamente más importante que las demás. Tales son las condiciones de Lindeberg y condicionan a Lyapounov . Otras generalizaciones permiten incluso una dependencia "débil". Además, una generalización de Gnedenko y Kolmogorov establece que la suma de un cierto número de variables aleatorias con una cola de distribución decreciente según con (por lo tanto, tiene una varianza infinita) tiende hacia una ley de Levy simétrica y estable truncada cuando el número de variables aumenta.
Podemos, a costa de una formulación algo menos simple, eliminar la hipótesis según la cual las variables son de la misma ley. Sin embargo, las variables siguen siendo independientes: sea, por tanto, una serie de variables aleatorias definidas en el mismo espacio de probabilidad, independientes . Suponga que, para , tiene una expectativa finita y una desviación estándar finita , y sea
y
.Supongamos que para algunos la condición Liapounov
se satisface, entonces la suma normalizada de converge hacia una distribución normal centrada reducida, es decir:
.Con las mismas definiciones y las mismas notaciones que antes, podemos reemplazar la condición de Liapunov por la siguiente, que es más débil.
Teorema ( Lindeberg , 1920) - Si, para todo ε> 0
donde 1 {…} es la función indicadora , entonces la ley de converge a la ley normal centrada reducida .
Hay algunos teoremas que tratan el caso de sumas de variables aleatorias dependientes reales, por ejemplo, el teorema del límite central para secuencias dependientes de m , el teorema del límite central para martingalas y el teorema del límite central para procesos de mezcla .
Existe una generalización a vectores aleatorios independientes de la misma ley, cuyos componentes son cuadrados integrables, siendo el límite entonces un vector gaussiano. Una primera versión de este teorema del límite del vector central, debida a Pierre-Simon de Laplace , apareció en 1812. Entre las muchas consecuencias de este teorema, podemos contar, por ejemplo, la convergencia hacia la ley de χ ² , crucial, por ejemplo, para sus aplicaciones en estadística, o la convergencia de caminatas aleatorias hacia el movimiento browniano.
La denominación "teorema del límite central" se refiere a un documento científico escrito por George Pólya en 1920, titulado Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem [ Sobre el teorema [relativo a la noción de] límite central del cálculo probabilístico y los momentos del problema ) . Históricamente, y de acuerdo con la traducción del título, el teorema es, por tanto, central, de ahí el nombre de “teorema del límite central”.
Sin embargo, en la literatura matemática francesa, se pueden encontrar otros nombres, como “teorema del límite central”, “teorema del límite central” o “teorema del límite centrado”. Una justificación presentada por algunos autores es que el adjetivo "central" se aplica al centro de la distribución, en contraposición a su cola .