Función de distribución empírica
En estadística , una función de distribución empírica es una función de distribución que asigna la probabilidad 1 / n a cada uno de los n números de una muestra .
Cualquiera de X 1 , ..., X n una muestra de las variables iid definidos en un espacio de probabilidad con valores en , con la función de distribución F . La función de distribución empírica de la muestra se define por:
(Ω,A,PAG){\ Displaystyle (\ Omega, {\ mathcal {A}}, \ mathbb {P})}
R{\ Displaystyle \ mathbb {R}}
Fno{\ Displaystyle F_ {n}}
X1,...,Xno{\ Displaystyle X_ {1}, \ ldots, X_ {n}}![X_ {1}, \ ldots, X_ {n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ac794f5521dcce89913085a6d566e7cdb615dbb0)
∀X∈R,∀ω∈Ω,Fno(X,ω)=noometroBrmi D′mi´lmi´metrominots≤XDanos l′mi´vshanotIllonono=1no∑I=1no1XI(ω)≤X{\ Displaystyle \ forall x \ in \ mathbb {R}, \ forall \ omega \ in \ Omega, F_ {n} (x, \ omega) = {\ frac {\ mathrm {número ~ de {\ aguda {e} } los {\ agudos {e}} mentos} \, \ leq x \, \ mathrm {en ~ la {\ aguda {e}} muestra}} {n}} = {\ frac {1} {n}} \ suma _ {i = 1} ^ {n} \ mathbf {1} _ {X_ {i} (\ omega) \ leq x}}
que es la función indicadora del evento At .
1A{\ Displaystyle \ mathbf {1} _ {A}}
Para cada ω , el mapa es una función escalonada, función de distribución de la ley de probabilidad uniforme sobre el conjunto .
X→Fno(X,ω){\ Displaystyle x \ to F_ {n} (x, \ omega)}
{X1(ω),...,Xno(ω)}{\ Displaystyle \ {X_ {1} (\ omega), \ dots, X_ {n} (\ omega) \}}![{\ Displaystyle \ {X_ {1} (\ omega), \ dots, X_ {n} (\ omega) \}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/954b3a316484a87faf2fc36be0a4388ba4c2cad5)
Para cada x , la variable aleatoria es una variable aleatoria de Bernoulli , parámetro p = F ( x ) . En consecuencia, la variable aleatoria , que se observará , se distribuye según una ley binomial , con la media nF ( x ) y la varianza nF ( x ) (1 - F ( x )) . En particular, F n ( x ) es un estimador insesgado de F ( x ) .
1(XI≤X){\ Displaystyle \ mathbf {1} _ {(X_ {i} \ leq x)}}
ω→noFno(X,ω){\ Displaystyle \ omega \ to nF_ {n} (x, \ omega)}
noFno(X,.){\ Displaystyle nF_ {n} (x,.)}
Propiedades asintóticas
para todo x ,
casi seguro .
Fno(X,.)→F(X){\ Displaystyle F_ {n} (x ,.) \ to F (x)}
no(Fno(X,.)-F(X)){\ Displaystyle {\ sqrt {n}} (F_ {n} (x ,.) - F (x))}
converge en ley a una
ley normal para una x fija.
NO(0,F(X)(1-F(X)){\ Displaystyle {\ mathcal {N}} (0, F (x) (1-F (x))}![{\ Displaystyle {\ mathcal {N}} (0, F (x) (1-F (x))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aab48982285542297ee79cdf7eaa98f055766522)
El
teorema de Berry-Esseen proporciona la tasa de convergencia.
‖Fno-F‖∞=sorberX∈R‖Fno(X,.)-F(X)‖ →no→∞ 0{\ Displaystyle \ | F_ {n} -F \ | _ {\ infty} = \ sup _ {x \ in \ mathbb {R}} \ | F_ {n} (x ,.) - F (x) \ | ~ {\ xrightarrow [{n \ to \ infty}] {}} ~ 0}
casi seguro .
La
desigualdad de Dvoretzky-Kiefer-Wolfowitz proporciona la tasa de convergencia.
no‖Fno-F‖∞{\ Displaystyle {\ sqrt {n}} \ | F_ {n} -F \ | _ {\ infty}}![{\ Displaystyle {\ sqrt {n}} \ | F_ {n} -F \ | _ {\ infty}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84391e776d250c7c1b9a0b3fc7261e6f0103c2ef)
converge en distribución a la distribución de Kolmogorov, siempre que F sea continua.
La
prueba de Kolmogorov-Smirnov de
bondad de ajuste se basa en este hecho.
no(Fno-F){\ Displaystyle {\ sqrt {n}} (F_ {n} -F)}![{\ sqrt {n}} (F_ {n} -F)](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6283a47a093737a6d195658435c449f18528ee1)
, como un proceso indexado por x , converge
débilmente en un
puente browniano B ( F ( x )).
ℓ∞(R){\ Displaystyle \ ell ^ {\ infty} (\ mathbb {R})}
Bibliografía
- (en) Galen R. Shorack y Jon A. Wellner , Procesos empíricos con aplicaciones a la estadística , Sociedad de Matemáticas Industriales y Aplicadas,4 de septiembre de 2009, 998 p. ( ISBN 978-0-89871-684-9 y 0-89871-684-5 , lea en línea )
- van der Vaart, AW y Wellner, JA (1996) "Convergencia débil y procesos empíricos", Springer. ( ISBN 0-387-94640-3 ) .