Método delta
Método delta
Naturaleza |
Método estadístico ( d )
|
---|
En probabilidad y estadística, el método delta (o método delta ) es un método para obtener una aproximación de la distribución asintótica de la transformada de una variable aleatoria asintóticamente normal. De manera más general, podemos considerar el método delta como una extensión del teorema del límite central .
Caso univariado
Sea una serie de variables aleatorias de expectativa y varianza . Si con la notación de convergencia en derecho , según el método delta, para cualquier función g diferenciable y tal que :
X1,...,Xno{\ Displaystyle X_ {1}, \ ldots, X_ {n}}
θ{\ Displaystyle \ theta}
σ2{\ Displaystyle \ sigma ^ {2}}
no[X¯no-θ]→LNO(0,σ2),{\ Displaystyle {{\ sqrt {n}} [{\ bar {X}} _ {n} - \ theta] \, {\ xrightarrow {L}} \, {\ mathcal {N}} (0, \ sigma ^ {2})},}
→L{\ displaystyle {\ xrightarrow {L}}}
gramo′(θ)≠0{\ Displaystyle g '(\ theta) \ neq 0}![g '(\ theta) \ neq 0](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae74180ce256683d9653423f8adadc77a44a9b4b)
no[gramo(X¯no)-gramo(θ)]→LNO(0,σ2[gramo′(θ)]2){\ Displaystyle {{\ sqrt {n}} [g ({\ bar {X}} _ {n}) - g (\ theta)] \, {\ xrightarrow {L}} \, {\ mathcal {N} } (0, \ sigma ^ {2} [g '(\ theta)] ^ {2})}}![{\ Displaystyle {{\ sqrt {n}} [g ({\ bar {X}} _ {n}) - g (\ theta)] \, {\ xrightarrow {L}} \, {\ mathcal {N} } (0, \ sigma ^ {2} [g '(\ theta)] ^ {2})}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/12ff54763289b70be768835291581d7439dbb538)
.
Caso multivariado
Sea una secuencia de vectores aleatorios de , una función diferenciable en . Suponga que donde denota la distribución centrada en dimensiones normales de la matriz de varianza-covarianza . En este caso, el método delta está escrito:X1,...,Xno{\ Displaystyle X_ {1}, \ dots, X_ {n}}
RD{\ Displaystyle \ mathbb {R} ^ {d}}
gramo:RD⟶Rs{\ Displaystyle g: \ mathbb {R} ^ {d} \ longrightarrow \ mathbb {R} ^ {s}}
θ{\ Displaystyle \ theta}
no[Xno¯-θ]→LNOD(0,Σ){\ textstyle {{\ sqrt {n}} [{\ bar {X_ {n}}} - \ theta] \, \ xrightarrow {L} \, {\ mathcal {N}} _ {d} (0, \ Sigma)}}
NOD(0,Σ){\ Displaystyle {\ mathcal {N}} _ {d} (0, \ Sigma)}
D{\ Displaystyle d}
Σ{\ Displaystyle \ Sigma}![\ Sigma](https://wikimedia.org/api/rest_v1/media/math/render/svg/9e1f558f53cda207614abdf90162266c70bc5c1e)
no[gramo(Xno)-gramo(θ)]→LNOs(0,Dgramo(θ)ΣDgramo(θ)T){\ Displaystyle {{\ sqrt {n}} [g (X_ {n}) - g (\ theta)] \, {\ xrightarrow {L}} \, {\ mathcal {N}} _ {s} \ left (0, Dg (\ theta) \ Sigma Dg (\ theta) ^ {T} \ right)}}
![{\ Displaystyle {{\ sqrt {n}} [g (X_ {n}) - g (\ theta)] \, {\ xrightarrow {L}} \, {\ mathcal {N}} _ {s} \ left (0, Dg (\ theta) \ Sigma Dg (\ theta) ^ {T} \ right)}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/015d4acb7ced28c5c64a01ad6d73f28e5edd185e)
con la
matriz jacobiana de en .
Dgramo(θ){\ Displaystyle Dg (\ theta)}
gramo{\ Displaystyle g}
θ{\ Displaystyle \ theta}![\ theta](https://wikimedia.org/api/rest_v1/media/math/render/svg/6e5ab2664b422d53eb0c7df3b87e1360d75ad9af)
Ejemplo
Sea una serie de variables aleatorias de expectativa y varianza . Por el teorema del límite central, lo sabemos . Ahora bien, si definimos , podemos obtener la distribución asintótica de gracias al método delta. En este caso, tenemos la función . Sabemos que esta función comprueba . Al aplicar el método delta, obtenemos .
X1,...,Xno{\ Displaystyle X_ {1}, \ ldots, X_ {n}}
μ{\ Displaystyle \ mu}
σ2{\ Displaystyle \ sigma ^ {2}}
no[Xno¯-μ]→LNO(0,σ2){\ displaystyle {\ sqrt {n}} [{\ bar {X_ {n}}} - \ mu] \, {\ xrightarrow {L}} \, {\ mathcal {N}} (0, \ sigma ^ { 2})}
Wno=miXno¯{\ Displaystyle W_ {n} = e ^ {\ bar {X_ {n}}}}
Wno{\ Displaystyle W_ {n}}
gramo(X)=miX{\ Displaystyle g (x) = e ^ {x}}
gramo′(X)=miX{\ Displaystyle g '(x) = e ^ {x}}
no[miXno¯-miμ]→LNO(0,σ2mi2μ){\ Displaystyle {\ sqrt {n}} [e ^ {\ bar {X_ {n}}} - e ^ {\ mu}] \, {\ xrightarrow {L}} \, {\ mathcal {N}} ( 0, \ sigma ^ {2} e ^ {2 \ mu})}![\ sqrt {n} [e ^ {\ bar {X_n}} - e ^ \ mu] \, \ xrightarrow {L} \, \ mathcal {N} (0, \ sigma ^ 2 e ^ {2 \ mu})](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca0ada6b4969338a6ac6d4bb84c799661facc992)
Bibliografía
Notas y referencias
-
(en) Larry Wasserman , Todas las estadísticas: Un curso conciso en Inferencia Estadística Springer al. "Textos de Springer en estadística",2004, p. 79
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">