Función de generador de probabilidad
En matemáticas , y más particularmente en teoría de probabilidades , la función que genera probabilidades (o función que genera momentos factoriales ) de una variable aleatoria (con valores en enteros naturales ) es la serie entera asociada con la función de masa de esta variable aleatoria. La función generadora de probabilidad es útil porque permite caracterizar completamente la función de masa. La función que genera las probabilidades generalmente se identifica con su suma.
Definición
Sea X una variable aleatoria entera y positiva, la función que genera las probabilidades de X es la serie completa
GRAMOX(t): =∑k≥0PAG(X=k)tk{\ Displaystyle G_ {X} (t): = \ sum _ {k \ geq 0} \ mathbb {P} (X = k) t ^ {k}}
donde es la probabilidad de que la variable aleatoria X tome el valor k . La función que genera las probabilidades a menudo se confundirá con su suma cuando esta última converja.
PAG(X=k){\ Displaystyle \ mathbb {P} (X = k)}
Si R es el radio de convergencia de toda la serie, entonces notamos que la función existe y es finita en el conjunto (con la convención de que ) y por lo tantot↦mi[tX]{\ Displaystyle t \ mapsto \ mathbb {E} [t ^ {X}]}
]-R,R[∪{-1,1}{\ Displaystyle] -R, R [\, \ cup \, \ {- 1,1 \}}
00=1{\ displaystyle 0 ^ {0} = 1}
GRAMOX(t)=mi[tX] ∀t∈]-R,R[∪{-1,1}{\ Displaystyle G_ {X} (t) = \ mathbb {E} [t ^ {X}] ~~~ \ forall t \ in \,] - R, R [\, \ cup \, \ {- 1, 1 \}}![{\ Displaystyle G_ {X} (t) = \ mathbb {E} [t ^ {X}] ~~~ \ forall t \ in \,] - R, R [\, \ cup \, \ {- 1, 1 \}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/36059838ad5da15d96ff80302c361c225f44e759)
.
Si R es entonces terminada esta última igualdad puede seguir siendo cierto para t = R y T = - R .
Dado que los coeficientes de toda la serie son probabilidades, R es mayor o igual que 1 . De hecho, para 0 ≤ t ≤ 1 la serie es uniformemente convergente desde y eso .
|PAG(X=k)tk|≤PAG(X=k){\ Displaystyle | \ mathbb {P} (X = k) t ^ {k} | \ leq {P} (X = k)}
∑k≥0PAG(X=k)=1{\ Displaystyle \ sum _ {k \ geq 0} {P} (X = k) = 1}
Si R es estrictamente mayor que 1, entonces se puede desarrollar en series enteras en la vecindad de 1 (porque la suma de una serie entera se puede desarrollar en series completas en su disco abierto de convergencia), además X admite momentos factoriales de cualquier orden finito y en el barrio de 1 tenemosGRAMOX{\ Displaystyle G_ {X}}
GRAMOX(t)=∑k=0+∞1k!mi[(X)k](t-1)k{\ Displaystyle G_ {X} (t) = \ sum _ {k = 0} ^ {+ \ infty} {\ frac {1} {k!}} \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]} (t-1) ^ {k}}
que significa el k ésimo momento factorial de X .
mi[(X)k]{\ Displaystyle \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]}}![{\ Displaystyle \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6b1ced18345d1d271c6be60fb17331544cc56d0)
Funciones que generan leyes habituales
Funciones que generan leyes habituales
Nombre de la ley
|
configuraciones
|
Función de masa k↦PAG(X=k){\ Displaystyle k \ mapsto \ mathbb {P} (X = k)}
|
Función de generador GRAMOX{\ Displaystyle G_ {X}}
|
Radio de convergencia de GRAMOX{\ Displaystyle G_ {X}}
|
---|
Ley de Bernoulli
|
pag{\ Displaystyle p}
|
pag1k=1+q1k=0{\ Displaystyle p \ mathbf {1} _ {k = 1} + q \ mathbf {1} _ {k = 0}}
|
q+pagt{\ Displaystyle q + pt}
|
∞{\ Displaystyle \ infty}
|
Ley binomial
|
no,pag{\ Displaystyle n, p}
|
(nok)pagkqno-k{\ Displaystyle {\ binom {n} {k}} p ^ {k} q ^ {nk}}
|
(q+pagt)no{\ Displaystyle (q + pt) ^ {n}}
|
∞{\ Displaystyle \ infty}
|
Ley geométrica
|
pag{\ Displaystyle p}
|
qk-1pag1k≥1{\ Displaystyle q ^ {k-1} p \ mathbf {1} _ {k \ geq 1}}
|
pagt1-qt{\ Displaystyle {\ frac {pt} {1-qt}}}
|
1q{\ Displaystyle {\ frac {1} {q}}}
|
Ley de Poisson
|
λ{\ Displaystyle \ lambda}
|
λkk!mi-λ{\ Displaystyle {\ frac {\ lambda ^ {k}} {k!}} e ^ {- \ lambda}}
|
miλ(t-1){\ Displaystyle e ^ {\ lambda (t-1)}}
|
∞{\ Displaystyle \ infty}
|
Ley logarítmica
|
pag{\ Displaystyle p}
|
-pagkkenq1k≥1{\ Displaystyle {\ frac {-p ^ {k}} {k \ ln q}} \ mathbf {1} _ {k \ geq 1}}
|
en(1-pagt)enq{\ Displaystyle {\ frac {\ ln (1 punto)} {\ ln q}}}
|
1pag{\ Displaystyle {\ frac {1} {p}}}
|
Ley binomial negativa
|
no,pag{\ Displaystyle n, p}
|
(no+k-1k)pagnoqk{\ Displaystyle {\ binom {n + k-1} {k}} p ^ {n} q ^ {k}}
|
(pag1-qt)no{\ Displaystyle \ left ({\ frac {p} {1-qt}} \ right) ^ {n}}
|
1q{\ Displaystyle {\ frac {1} {q}}}
|
Distribución binomial negativa extendida
|
r,pag,metro{\ Displaystyle r, p, m}
|
(r+k-1k)qkpag-r-∑I=0metro-1(r+I-1I)qI1k≥metro{\ Displaystyle {\ frac {{r + k-1 \ elige k} q ^ {k}} {p ^ {- r} - \ sum _ {i = 0} ^ {m-1} {r + i- 1 \ elija i} q ^ {i}}} \ mathbf {1} _ {k \ geq m}}
|
(1-qt)-r-∑I=0metro-1(r+I-1I)(qt)Ipag-r-∑I=0metro-1(r+I-1I)qI{\ Displaystyle {\ frac {(1-qt) ^ {- r} - \ sum _ {i = 0} ^ {m-1} {\ binom {r + i-1} {i}} (qt) ^ {i}} {p ^ {- r} - \ sum _ {i = 0} ^ {m-1} {\ binom {r + i-1} {i}} q ^ {i}}}}
|
1q{\ Displaystyle {\ frac {1} {q}}}
|
Ley beta-binomial
|
no,α,β{\ Displaystyle n, \ alpha, \ beta}
|
(nok)B(k+α,no-k+β)B(α,β){\ Displaystyle {\ binom {n} {k}} {\ frac {B (k + \ alpha, n-k + \ beta)} {B (\ alpha, \ beta)}}}
|
2F1(-no,α;1-β-no;t)2F1(-no,α;1-β-no;1){\ Displaystyle {\ frac {_ {2} F_ {1} (- n, \ alpha \ ,; \, 1- \ beta -n \ ,; \, t)} {_ {2} F_ {1} ( -n, \ alpha \ ,; \, 1- \ beta -n \ ,; \, 1)}}}
|
1{\ Displaystyle 1}
|
Ley hipergeométrica
|
no,pag,NO{\ Displaystyle n, p, N}
|
(pagNOk)(qNOno-k)(NOno){\ Displaystyle {\ frac {{\ binom {pN} {k}} {\ binom {qN} {nk}}} {\ binom {N} {n}}}}
|
2F1(-no,-pagNO;1+qNO-no;t)2F1(-no,-pagNO;1+qNO-no;1){\ Displaystyle {\ frac {_ {2} F_ {1} (- n, -pN \ ,; \, 1 + qN-n \ ,; \, t)} {_ {2} F_ {1} (- n, -pN \ ,; \, 1 + qN-n \ ,; \, 1)}}}
|
1{\ Displaystyle 1}
|
Ley de Markov-Pólya
|
a,B,h,no{\ Displaystyle a, b, h, n}
|
(nok)a(k,h)B(no-k,h)metro(no,h){\ Displaystyle {\ binom {n} {k}} {\ frac {a ^ {(k, h)} b ^ {(nk, h)}} {m ^ {(n, h)}}}}
|
2F1(-no,a/h;1-B/h-no;t)2F1(-no,a/h;1-B/h-no;1){\ Displaystyle {\ frac {_ {2} F_ {1} (- n, \, a / h \ ,; \, 1-b / hn \ ,; \, t)} {_ {2} F_ {1 } (- n, \, a / h \ ,; \, 1-b / hn \ ,; \, 1)}}}
|
1{\ Displaystyle 1}
|
Propiedades
-
GRAMOX{\ Displaystyle G_ {X}}
siempre se define en t = 1 y t = −1 además tenemos y .GRAMOX(1)=1{\ Displaystyle G_ {X} (1) = 1}
GRAMOX(-1)=PAG(X incluso)-PAG(X es impar){\ Displaystyle G_ {X} (- 1) = \ mathbb {P} (X {\ text {es par}}) - \ mathbb {P} (X {\ text {es impar}})}
-
X admite una expectativa finitasi y solo si la derivada izquierda dese define en t = 1 ; si es necesario tenemosmi[X] {\ Displaystyle \ mathbb {E} [X] \}
GRAMOX{\ Displaystyle G_ {X}}
mi[X]=GRAMOX′(1){\ Displaystyle \ mathbb {E} [X] = G_ {X} '(1)}![{\ Displaystyle \ mathbb {E} [X] = G_ {X} '(1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5bcf765bbfd6952840541530f1ac7f83f4d588a6)
.
-
X admite una varianza finita, y por lo tanto una expectativa finita, si y solo si la derivada izquierda de orden 2 dese define en t = 1 ; si es necesario tenemosV(X){\ Displaystyle \ mathbb {V} (X)}
mi[X]{\ Displaystyle \ mathbb {E} [X]}
GRAMOX{\ Displaystyle G_ {X}}
V[X]=GRAMOX″(1)+GRAMOX′(1)-GRAMOX′(1)2{\ Displaystyle \ mathbb {V} [X] = G_ {X} '' (1) + G_ {X} '(1) -G_ {X}' (1) ^ {2}}![{\ Displaystyle \ mathbb {V} [X] = G_ {X} '' (1) + G_ {X} '(1) -G_ {X}' (1) ^ {2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5cb9e204cdde506911af390536c2a8f282f5302c)
.
- De manera más general, X admite un momento factorial de orden finito k si y sólo si la derivada izquierda de orden k de está definida en t = 1 ; si es necesario tenemosmi[(X)k]{\ Displaystyle \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]}}
GRAMOX{\ Displaystyle G_ {X}}
mi[(X)k]=GRAMOX(k)(1){\ Displaystyle \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]} = G_ {X} ^ {(k)} (1)}![{\ Displaystyle \ mathbb {E} {\ bigl [} (X) _ {k} {\ bigr]} = G_ {X} ^ {(k)} (1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2591a2787fe66daf914138fb0ef7a12dae24d6b8)
.
- Dos variables aleatorias con valores en admiten la misma función generadora de probabilidad si y solo si tienen la misma distribución de probabilidad. En otras palabras, la función que genera las probabilidades caracteriza a la ley. Ademas tenemosNO{\ Displaystyle \ mathbb {N}}

GRAMOX(k)(0)=k!PAG(X=k) ∀k≥0{\ Displaystyle G_ {X} ^ {(k)} (0) = k! \ mathbb {P} (X = k) ~~~ \ forall k \ geq 0}
.
- Sean X y Ydos variables aleatorias con valores en . síNO{\ Displaystyle \ mathbb {N}}
X y Y son independientes entonces tenemos:GRAMOX+Y=GRAMOX×GRAMOY.{\ Displaystyle G_ {X + Y} = G_ {X} \ times G_ {Y}.}
Nota : Lo contrario es falso.
- sí X1 ,X2 , ...,X n son variables aleatorias independientes, y si establecemosSno=∑I=1noaIXI{\ Displaystyle S_ {n} = \ sum _ {i = 1} ^ {n} a_ {i} X_ {i}}
donde las a i son constantes, entonces
GRAMOSno(z)=mi(zSno)=mi(z∑I=1noaIXI,)=GRAMOX1(za1)GRAMOX2(za2)⋯GRAMOXno(zano){\ Displaystyle G_ {S_ {n}} (z) = \ mathbb {E} (z ^ {S_ {n}}) = \ mathbb {E} (z ^ {\ sum _ {i = 1} ^ {n } a_ {i} X_ {i},}) = G_ {X_ {1}} (z ^ {a_ {1}}) G_ {X_ {2}} (z ^ {a_ {2}}) \ cdots G_ {X_ {n}} (z ^ {a_ {n}})}
.
- Si además el X i todos tienen el mismo derecho (y por lo tanto la misma función generadoraGRAMO), luego la variable aleatoriaSno=∑I=1noXI{\ Displaystyle S_ {n} = \ sum _ {i = 1} ^ {n} X_ {i}}
tiene la función generadora:
GRAMOSno=GRAMOno{\ Displaystyle G_ {S_ {n}} = G ^ {n}}
.
- Es (Xn ) una secuencia de variables aleatorias con valores en yNO{\ Displaystyle \ mathbb {N}}
Xuna variable aleatoria también con valores en . Entonces las siguientes afirmaciones son equivalentes:
NO{\ Displaystyle \ mathbb {N}}
- (Xn ) converge en la ley aX .
- Para todo k ≥ 0 tenemos convergencia ya que n tiende a infinito.PAG(Xno=k)→PAG(X=k){\ Displaystyle \ mathbb {P} (X_ {n} = k) \ rightarrow \ mathbb {P} (X = k)}

- Para todo 0 < t <1 tenemos convergencia ya que n tiende a infinito.GRAMOXno(t)→GRAMOX(t){\ Displaystyle G_ {X_ {n}} (t) \ rightarrow G_ {X} (t)}

Composición de funciones generadoras
La siguiente propiedad es particularmente útil en el estudio de los procesos de Galton-Watson .
Teorema : considere una secuencia de variables aleatorias con la misma distribución y una variable aleatoria, todas con valores en .
(Xno){\ Displaystyle (X_ {n})}
NO{\ Displaystyle N}
NO{\ Displaystyle \ mathbb {N}}
- Nosotros posamos
SNO=∑no=1NOXno=∑no≥1Xno 11{NO≥no}{\ Displaystyle S_ {N} = \ sum _ {n = 1} ^ {N} X_ {n} = \ sum _ {n \ geq 1} X_ {n} \ 1 \! \! 1 _ {\ {N \ geq n \}}}
.
- Suponemos que es una familia de variables aleatorias independientes .(NO,X1,X2,...){\ Displaystyle (N, X_ {1}, X_ {2}, ...)}

Entonces :
GRAMOSNO=GRAMONO∘GRAMOX{\ Displaystyle G_ {S_ {N}} = G_ {N} \ circ G_ {X}}
.
Demostración
Tenga en cuenta que, si y si
S0≡0{\ Displaystyle S_ {0} \ equiv 0}
Sno=∑k=1noXk,{\ Displaystyle S_ {n} = \ sum _ {k = 1} ^ {n} X_ {k},}
entonces
SNO=∑no≥0 Sno 11{NO=no}.{\ Displaystyle S_ {N} = \ sum _ {n \ geq 0} \ S_ {n} \ 1 \! \! 1 _ {\ {N = n \}}.}
En consecuencia,
GRAMOSNO(z)=mi[zSNO]=mi[z∑no≥0 Sno 11{NO=no}]=mi[∑no≥0 zSno 11{NO=no}]=∑no≥0 mi[zSno 11{NO=no}]=∑no≥0 mi[zSno]×mi[11{NO=no}]=∑no≥0 GRAMOSno(z)×PAG(NO=no)=∑no≥0 PAG(NO=no)×(GRAMOX(z))no=GRAMONO(GRAMOX(z)).{\ Displaystyle {\ begin {align} G_ {S_ {N}} (z) & = \ mathbb {E} \ left [z ^ {S_ {N}} \ right] \\ & = \ mathbb {E} \ izquierda [z ^ {\ sum _ {n \ geq 0} \ S_ {n} \ 1 \! \! 1 _ {\ {N = n \}}} \ right] \\ & = \ mathbb {E} \ izquierda [\ sum _ {n \ geq 0} \ z ^ {S_ {n}} \ 1 \! \! 1 _ {\ {N = n \}} \ right] \\ & = \ sum _ {n \ geq 0} \ \ mathbb {E} \ left [z ^ {S_ {n}} \ 1 \! \! 1 _ {\ {N = n \}} \ right] \\ & = \ sum _ {n \ geq 0} \ \ mathbb {E} \ left [z ^ {S_ {n}} \ right] \ times \ mathbb {E} \ left [1 \! \! 1 _ {\ {N = n \}} \ derecha] \\ & = \ sum _ {n \ geq 0} \ G_ {S_ {n}} (z) \ times \ mathbb {P} \ left (N = n \ right) \\ & = \ sum _ { n \ geq 0} \ \ mathbb {P} \ left (N = n \ right) \ times \ left (G_ {X} (z) \ right) ^ {n} \\ & = G_ {N} \ left ( G_ {X} (z) \ right). \ End {alineado}}}
Generalización
La siguiente igualdad permite considerar la noción de función que genera los momentos factoriales de una variable aleatoria X en el caso de que X tome valores reales yt valores complejos (siempre que t ≠ 0 o que X ≥ 0 ). En este marco más general, ya no se ve como la serie completa asociada con la función de masa, sino como una función con valores complejos definidos en un cierto subconjunto del plano complejo. Este conjunto de definiciones depende, por supuesto, de X, pero siempre contendrá el círculo unitario. La restricción de al círculo unitario es equivalente a la función característica en el sentido de que
GRAMOX(t)=mi[tX]{\ Displaystyle G_ {X} (t) = \ mathbb {E} [t ^ {X}]}
GRAMOX{\ Displaystyle G_ {X}}
GRAMOX{\ Displaystyle G_ {X}}
ϕX{\ Displaystyle \ phi _ {X}}
GRAMOX(miIt)=ϕX(t) ∀t∈R{\ Displaystyle G_ {X} (\ mathrm {e} ^ {it}) = \ phi _ {X} (t) ~~~ \ forall t \ in \ mathbb {R}}
.
En la práctica, la función característica se usa casi exclusivamente para variables aleatorias con valores reales, mientras que la función que genera probabilidades se usa para variables aleatorias con valores en números naturales.
Notas y referencias
-
Laurent Rouvière, " probabilidades generales " , pág. 43
-
Magalie Fromont, " Probabilidad general " , p. 27
-
(en) GA Young, " M2S1 Lecture notes " , p. 28
-
Esta igualdad a menudo aparece como una definición de la función generadora de probabilidad, pero en este caso, esta última pierde su estatus como una serie entera para convertirse en una función definida en un cierto subconjunto de los números reales. No deberíamos dejarnos engañar por la palabra "función" en "función que genera probabilidades" porque esta última es de hecho una serie completa; su suma, por otro lado, es una función.
-
Si nos permitimos tomar valores infinitos, entonces la igualdad es verdadera para todo t ≥ 0 .GRAMOX(t)=mi[tX]∈[0,+∞]{\ Displaystyle G_ {X} (t) = \ mathbb {E} [t ^ {X}] \ in [0, + \ infty]}
-
Esta igualdad explica por qué la función que genera las probabilidades también se llama función que genera los momentos factoriales. Sin embargo, se debe tener cuidado porque toda la serie generada por los momentos factoriales puede tener un radio de convergencia cero (los momentos factoriales pueden ni siquiera ser finitos) mientras que toda la serie generada por las probabilidades siempre tiene un radio de convergencia mayor o igual que a 1.
-
Para aligerar las notaciones que habremos planteado . En el caso de la ley de Markov-Pólya también habremos fijado y . La función designa la función beta y designa la función hipergeométrica . Finalmente, habremos considerado, por convención, que entre es cero tan pronto comoq=1-pag{\ Displaystyle q = 1-p}
metro=a+B{\ Displaystyle m = a + b}
X(r,I): =X(X+I)(X+2I)...(X+(r-1)I){\ Displaystyle x ^ {(r, i)}: = x (x + i) (x + 2i) \ dots (x + (r-1) i)}
B{\ Displaystyle B}
2F1{\ Displaystyle _ {2} F_ {1}}
k{\ Displaystyle k}
no{\ Displaystyle n}
k>no{\ Displaystyle k> n}
-
Sin embargo, hay que tener en cuenta que la función característica está perfectamente definida para una variable aleatoria con valores enteros y que, en este caso, no coincide con la función que genera las probabilidades. Por tanto, la función característica no es una generalización, stricto sensu, de la función que genera probabilidades.
Ver también
Serie de generadores
Serie completa
Función generadora de momentos
Función característica (probabilidades)
Acumulativo (estadísticas)
Bibliografía
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">