2 Modelos actuariales
2.1 Densidades continuas
Sea \(X\) una variable aleatoria continua con densidad \(f_{X}(x)\) y distribución \(F_{X}(x)\). Sea \(Y=\theta X\) con \(\theta>0\). Después \[\begin{equation*} F_{Y}(y)=F_{X}\left(\frac{y}{\theta}\right), \quad f_{Y}(y)=\frac{1}{\theta} f_{X}\left(\frac{y}{\theta}\right) . \end{equation*}\]
Recuerden que la función de densidad de una Gamma es
\[ f_{gamma} (x) = \frac{(x/\theta)^\alpha e^{-x/\theta}}{x\Gamma(\alpha)} \]
con \(\alpha, \theta >0\). Al parámetro \(\alpha\) se le dice la forma (shape
) y a \(\theta\) la escala (scale
).
Veamos el efecto de cada uno de estos parámetros en la densidad.
<- 0:1000
x <- c(100, 150, 200, 250)
scale_seq <- c(2, 3, 4, 5)
shape_seq
<- data.frame(
df_scale x = rep(x, each = length(scale_seq)),
scale = rep(scale_seq, times = length(x))
%>%
) mutate(dens = pmap_dbl(., dgamma, shape = 2))
ggplot(df_scale, aes(
x = x,
y = dens,
color = as.factor(scale)
+
)) geom_line()
<- data.frame(
df_shape x = rep(x, each = length(shape_seq)),
shape = rep(shape_seq, times = length(x))
%>%
) mutate(dens = pmap_dbl(., dgamma, scale = 100))
ggplot(df_shape, aes(
x = x,
y = dens,
color = as.factor(shape)
+
)) geom_line()
2.1.1 Casos particulares
Si \(\alpha=1\) (shape
) entonces tenemos una función exponencial
<- 0:1000
x <- c(100, 150, 200, 250)
scale_seq
<- data.frame(x = rep(x, each = length(scale_seq)),
df_gamma scale = rep(scale_seq, times = length(x))) %>%
mutate(dens = pmap_dbl(., dgamma, shape = 1)) %>%
mutate(parameter = scale, distribution = "Gamma") %>%
select(-scale)
<- data.frame(x = rep(x, each = length(scale_seq)),
df_exp rate = 1 / rep(scale_seq, times = length(x))) %>%
mutate(dens = pmap_dbl(., dexp)) %>%
mutate(parameter = rate, distribution = "Exponential") %>%
select(-rate)
<- rbind(df_gamma, df_exp)
df
ggplot(df, aes(
x = x,
y = dens,
color = as.factor(parameter)
+
)) geom_line() +
facet_wrap(.~distribution)
Sea \(X\) una variable aleatoria continua con \(f_{X}(x)\) y cdf \(F_{X}(x)\) con \(F_{X} (0)=0\). Sea \(Y=X^{1 / \tau}\). Entonces, si \(\tau>0\), \[\begin{equation*} F_{Y}(y)=F_{X}\left(y^{\tau}\right), \quad f_{Y}(y)=\tau y^{\tau-1} f_{X}\left(y^{\tau}\right), \quad y>0 \end{equation*}\] mientras, si \(\tau<0\), \[\begin{equation*} F_{Y}(y)=1-F_{X}\left(y^{\tau}\right), \quad f_{Y}(y)=-\tau y^{\tau-1} f_{X}\left(y^{\tau}\right) \end{equation*}\]
Observación. Algunas distribuciones se denominan de acuerdo al \(\tau\)
- Si \(\tau>0\) se dice transformada.
- Si \(\tau=-1\) se dice inversa.
- Si \(\tau<0\) se diece inversa transformada.
Teorema \(5.6\) Sea \(X\) una variable aleatoria continua con \(f_{X}(x)\) y cdf \(F_{X}(x)\) con \(f_{X} (x)>0\) para todo \(x\) real. Sea \(Y=\exp (X)\). Entonces, para \(y>0\),
\[\begin{equation*} F_{Y}(y)=F_{X}(\ln y), \quad f_{Y}(y)=\frac{1}{y} f_{X}(\ln y) \end{equation*}\]
Sea \(X\) \(f_{X \mid \Lambda}(x \mid \lambda)\) y \(c d f F_{X \mid \Lambda}(x \mid \ lambda)\), donde \(\lambda\) es un parámetro de \(X\). Si bien \(X\) puede tener otros parámetros, no son relevantes. Sea \(\lambda\) una realización de la variable aleatoria \(\Lambda\) con \(p d f f_{\Lambda}(\lambda)\). Entonces la incondicional \(p d f\) de \(X\) es \[\begin{equation*} f_{X}(x)=\int f_{X \mid \Lambda}(x \mid \lambda) f_{\Lambda}(\lambda) d \lambda \end{equation*}\]
donde la integral se toma sobre todos los valores de \(\lambda\) con probabilidad positiva. La distribución resultante es una distribución mixta. La función de distribución se puede determinar a partir de
\[\begin{equation*} \begin{aligned} F_{X}(x) &=\int_{-\infty}^{x} \int f_{X\mid \Lambda}(y \mid \lambda) f_{\Lambda}(\lambda) d \lambda d y \\ &=\iint_{-\infty}^{x} f_{X \mid \Lambda}(y \mid \lambda) f_{\Lambda}(\lambda) d y d \lambda \\ &=\int F_{X \mid \Lambda}(x \mid \lambda) f_{\Lambda}(\lambda) d \lambda \end{aligned} \end{equation*}\]
Momentos de la distribución mixta es
\[\begin{equation*} \mathrm{E}\left(X^{k}\right)=\mathrm{E}\left[\mathrm{E}\left(X^{k} \mid \Lambda\right)\right] \end{equation*}\] y, en particular \[\begin{equation*} \operatorname{Var}(X)=\mathrm{E}[\operatorname{Var}(X \mid \Lambda)]+\operatorname{Var}[\mathbf{E}(X \mid \Lambda)] \end{equation*}\]
Prueba. El integrando es, por definición, la densidad conjunta de \(X\) y \(\Lambda\). La integral es entonces la densidad marginal. Para el valor esperado (suponiendo que el orden de integración se puede invertir),\[\begin{equation*} \begin{aligned} \mathrm{E}\left(X^{k}\right) &=\iint x^{k} f_{X \mid \Lambda}(x \mid \lambda) f_{\Lambda}(\lambda) d \lambda d x \\ &=\int\left[\int x^{k} f_{X \mid \Lambda}(x \mid \lambda) d x\right] f_{\Lambda}(\lambda) d \lambda \\ &=\int \mathrm{E}\left(X^{k} \mid \lambda\right) f_{\Lambda}(\lambda) d \lambda \\ &=\mathrm{E}\left[\mathrm{E}\left(X^{k} \mid \Lambda\right)\right] \end{aligned} \end{equation*}\] Para la varianza, \[\begin{equation*} \begin{aligned} \operatorname{Var}(X) &=\mathrm{E}\left(X^{2}\right)-[\mathrm{E}(X)]^{2} \\ &=\mathrm{E}\left[\mathrm{E}\left(X^{2} \mid \Lambda\right)\right]-\{\mathrm{E}[\mathrm{E}(X \mid \Lambda)]\}^{2} \\ &=\mathrm{E}\left\{\operatorname{Var}(X \mid \Lambda)+[\mathrm{E}(X \mid \Lambda)]^{2}\right\}-\{\mathrm{E}[\mathrm{E}(X \mid \Lambda)]\}^{2} \\ &=\mathrm{E}[\operatorname{Var}(X \mid \Lambda)]+\operatorname{Var}[E(X \mid \Lambda)] \end{aligned} \end{equation*}\]
Sea \(X \mid \Lambda\) una distribución exponencial con parámetro \(1 / \Lambda\). Sea \(\Lambda\) con una distribución gamma. Determine la distribución incondicional de \(X\).
Tenemos (nótese que el parámetro \(\theta\) en la distribución gamma ha sido reemplazado por su recíproco)
\[\begin{equation*} \begin{aligned} f_{X}(x) &=\frac{\theta^{\alpha}}{\Gamma(\alpha)} \int_{0}^{\infty} \lambda e^{-\lambda x} \lambda^{\alpha-1} e^{-\theta \lambda} d \lambda \\ &=\frac{\theta^{\alpha}}{\Gamma(\alpha)} \int_{0}^{\infty} \lambda^{\alpha} e^{-\lambda(x+\theta)} d \lambda \\ &=\frac{\theta^{\alpha}}{\Gamma(\alpha)} \frac{\Gamma(\alpha+1)}{(x+\theta)^{\alpha+1}} \\ &=\frac{\alpha \theta^{\alpha}}{(x+\theta)^{\alpha+1}} . \end{aligned} \end{equation*}\] Esta es una distribución Pareto.
Una variable aleatoria \(X\) (discreta o continua) tiene una distribución de la familia exponencial lineal si su pdf puede parametrizarse en términos de un parámetro \(\theta\) y expresarse como\[\begin{equation*} f(x ; \theta)=\frac{p(x) e^{r(\theta) x}}{q(\theta)} . \end{equation*}\] La función \(p(x)\) depende solo de \(x\) (no de \(\theta\) ), y la función \(q(\theta)\) es una constante de normalización. Además, el soporte de la variable aleatoria no debe depender de \(\theta\). El parámetro \(r(\theta)\) se denomina parámetro canónico de la distribución.
Para el ejemplo de una gaussia se tiene, \[\begin{equation*} \begin{aligned} f(x ; \theta) &=(2 \pi v)^{-1 / 2} \exp \left[-\frac{1}{2 v}(x-\theta)^{2}\right] \\ &=(2 \pi v)^{-1 / 2} \exp \left(-\frac{x^{2}}{2 v}+\frac{\theta}{v} x-\frac{\theta^{2}}{2 v}\right) \\ &=\frac{\left[(2 \pi v)^{-1 / 2} \exp \left(-\frac{x^{2}}{2 v}\right)\right] \exp \left(\frac{\theta}{v} x\right)}{\exp \left(\frac{\theta^{2}}{2 v}\right)}, \end{aligned} \end{equation*}\] se tiene que \(p(x)=(2 \pi v)^{-1 / 2} \exp \left[-x^{2} /(2 v)\right], r (\theta)=\theta / v\), y \(q(\theta)=\exp \left[\theta^{2} /(2 v)\right]\)
2.1.2 Ejercicios
Pruebe el resultado del Teorema @ref(thm:mult-const).
Pruebe el resultado del Teorema @ref(thm:raise-power).
Pruebe el resultado del Teorema @ref(thm:exp-trans).
Suponga que las pérdidas agregadas de un aseguradora están en euros y siguen una distribución Lognormal con \(\mu=8\) y \(\sigma=2\). Asuma que 1 euro es igual 1.3 dólares. Encuentre los parámetros para la distribución en dólares y dibuje la distribución de pérdidas para ambas monedas.
Calcule en VaR al 95% en ambos casos.
Resuelva lo siguiente
Recuerde que si \(X\sim Exp(\theta)\) entonces \(Y=X^\tau \sim Weibull\). Cuales eran los parámetros de la Weibull con respecto a los parámetros de la Exponencial?
Genere 1000 datos aleatorios de una distribución exponencial con escala = 100 (Ojo la forma de parametrizar en
R
). Con las formulas de los parametros anteriores, genere 1000 datos aleatorios de Weibull. Compare los resultados.
Suponga que \(X\sim Unif(0,c)\). Defina \(Y=e^X\). Encuentre y dibuje la distribución de \(Y\).
Realice el mismo ejercicio de visualización que se hizo con la Gamma, pero usando las distribuciones
- Pareto
\[ f_{pareto} (x) = \frac{\alpha \theta^\alpha}{(x+\theta)^{\alpha + 1}},\ x>0, \alpha>0, \theta>0. \]
- Weibull
\[ f_{weibull} = \frac{\tau(x/\theta)^\tau e^{-(x/\theta)^\tau}}{x}, \ \ x>0, \tau>0, \theta>0. \]
Una compañía de seguros tiene 2 tipos de productos A y B. El 25% son de tipo A y el 75% son de tipo B. para los de tipo A, las pérdidas anuales siguen una distribución exponencial con media 200 y para lo de tipo B la pérdida sigue una Pareto con \(\alpha=3\) y \(\theta=200\).
Encuentre la densidad mezclada de ambos productos. Encuentre la probabilidad que la pérdida anual total sea menor que 100. ¿Cuál sería la pérdida media total?
El número de reclamos \(X\vert\Theta\) en una compañía sigue una distribución uniforme \((\Theta, \Theta+10)\). La v.a. \(\Theta\) sigue una distribución exponencial con media 5.
Encuentre la función de densidad no condicional de \(X\), además de su media y varianza. Dibuje esta densidad.
2.2 Densidades discretas
Se tiene que
\[\begin{equation*} p_{k}=\operatorname{Pr}(N=k), \quad k=0,1, \dots. \end{equation*}\]
La función generadora de probabilidades
\[\begin{equation*} P(z)=P_{N}(z)=\mathrm{E}\left(z^{N}\right)=\sum_{k=0}^{\infty} p_{k} z^{k} \end{equation*}\]
\[\begin{equation*} \begin{aligned} P^{(m)}(z) &=\mathrm{E}\left(\frac{d^{m}}{d z^{m}} z^{N}\right)=\mathrm{E}\left[N(N-1) \cdots(N-m+1) z^{N-m}\right] \\ &=\sum_{k=m}^{\infty} k(k-1) \cdots(k-m+1) z^{k-m} p_{k} \\ P^{(m)}(0) &=m ! p_{m} \text { or } p_{m}=\frac{P^{(m)}(0)}{m !} \end{aligned} \end{equation*}\]
2.2.1 Poisson
Es usada para cuantificar cantidad de eventos en cierto periodo, si se conoce la tasa \(\lambda\) de ocurrencia.
\[\begin{equation*} p_{k}=\frac{e^{-\lambda} \lambda^{k}}{k !}, \quad k=0,1,2, \ldots \end{equation*}\]
\[\begin{equation*} P(z)=e^{\lambda(z-1)}, \quad \lambda>0 \end{equation*}\]
\[\begin{equation*} \begin{aligned} \mathrm{E}(N) &=P^{\prime}(1)=\lambda \\ \mathrm{E}[N(N-1)] &=P^{\prime \prime}(1)=\lambda^{2} \\ \operatorname{Var}(N) &=\mathrm{E}[N(N-1)]+\mathrm{E}(N)-[\mathrm{E}(N)]^{2} \\ &=\lambda^{2}+\lambda-\lambda^{2} \\ &=\lambda . \end{aligned} \end{equation*}\]
Sean \(N_{1}, \ldots, N_{n}\) variables de Poisson independientes con parámetros \(\lambda_{1}, \ldots, \lambda_{n}\). Entonces \(N=N_{1}+\cdots+N_{n}\) tiene una distribución de Poisson con parámetro \(\lambda_{1}+\cdots+\lambda_{n}\).
Suponga que el número de eventos \(N\) es una variable aleatoria de Poisson con media \(\lambda\). Además, suponga que cada evento se puede clasificar en uno de los tipos \(m\) con probabilidades \(p_{1}, \ldots, p_{m}\) independientes de todos los demás eventos. Entonces el número de eventos \(N_{1}, \ldots, N_{m}\) correspondientes a los tipos de eventos \(1, \ldots, m\), respectivamente, son variables aleatorias de Poisson mutuamente independientes con medias \(\lambda p_{1}, \ldots, \lambda p_{m}\), respectivamente.
2.2.2 Binomial Negativa
También se usa para cuantificar eventos en un periodo. Se puede interpretar como el número de intentos hasta encontrar \(r\) éxitos. Se usan los parámetros \(\beta\) y \(r\) por lo que es más flexible en su forma que la Poisson.
\[\begin{equation*} \begin{aligned} \operatorname{Pr}(N=k)=p_{k}=\left(\begin{array}{c} k+r-1 \\ k \end{array}\right)\left(\frac{1}{1+\beta}\right)^{r}\left(\frac{\beta}{1+\beta}\right)^{k} \\ k=0,1,2, \ldots, \quad r>0, \beta>0 . \end{aligned} \end{equation*}\]
\[\begin{equation*} P(z)=[1-\beta(z-1)]^{-r} . \end{equation*}\]
\[\begin{equation*} \mathrm{E}(N)=r \beta \text { and } \operatorname{Var}(N)=r \beta(1+\beta). \end{equation*}\]
Note que \(\mathrm{E}(N) < \operatorname{Var}(N)\) por lo que está distribución funciona si las varianza es mayor que la esperanza.
2.2.3 Binomial
La distribución binomial describe el número de éxitos en \(m\) intentos bernoulli con probabilidad \(q\). Otra forma de verlo sería considere \(m\) i.i.d. riesgos cada uno con probabilidad de ejecutar un reclamo. Por ejemplo, para un seguro de vida donde todos los individuos tienen el mismo riesgo de mortalidad.
Para el caso de 1 individuo se tiene que \[\begin{equation*} P(z)=(1-q) z^{0}+q z^{1}=1+q(z-1) . \end{equation*}\]
Si se extiende a los \(m\) individuos \[\begin{equation*} P(z)=[1+q(z-1)]^{m}, \quad 0<q<1 . \end{equation*}\]
Y si se desea saber la probabilidad de tener exactamente \(k\) reclamos para el grupo se tiene \[\begin{equation*} p_{k}=\operatorname{Pr}(N=k)=\left(\begin{array}{c} m \\ k \end{array}\right) q^{k}(1-q)^{m-k}, \quad k=0,1, \ldots, m \end{equation*}\]
La media y varianza se calculan de forma estándar: \[\begin{equation*} \mathrm{E}(N)=m q, \quad \operatorname{Var}(N)=m q(1-q) \end{equation*}\]
Note que \(\mathrm{E}(N) > \operatorname{Var}(N)\), por lo que este modelo es más adecuado para casos donde la varianza es menor que la esperanza.
2.2.4 La clase \((a,b,0)\)
Sea \(p_{k}\) la probabilidad puntual de una variable aleatoria discreta. Es un miembro de la clase de distribuciones \((\boldsymbol{a}, \boldsymbol{b}, \mathbf{0})\) siempre que existan constantes \(a\) y \(b\) tales que\[\begin{equation*} \frac{p_{k}}{p_{k-1}}=a+\frac{b}{k}, \quad k=1,2,3, \ldots \end{equation*}\]
Distribución | \(a\) | \(b\) | \(p_{(0)}\) |
---|---|---|---|
Poisson | \(\displaystyle 0\) | \(\displaystyle \lambda\) | \(\displaystyle e^{-\lambda}\) |
Binomial | \(\displaystyle -\frac{q}{1-q}\) | \(\displaystyle (m+1) \frac{q}{1-q}\) | \(\displaystyle (1-q)^m\) |
Binomial Negativa | \(\displaystyle \frac{\beta}{1+\beta}\) | \(\displaystyle (r-1)\frac{\beta}{1+\beta}\) | \(\displaystyle (1+\beta)^{-\tau}\) |
Geométrica | \(\displaystyle \frac{\beta}{1+\beta}\) | \(\displaystyle 0\) | \(\displaystyle (1+\beta)^{-1}\) |
Esta expresión se puede reescribir como
\[\begin{equation*} k \frac{p_{k}}{p_{k-1}}=a k+b, \quad k=1,2,3, \ldots \end{equation*}\]
Esto es una función lineal con respecto a \(k\). Entonces se determinar cuál distribución es más adecuada a partir de los datos observados \(n_k\):
\[\begin{equation*} k \frac{\hat{p}_{k}}{\hat{p}_{k-1}}=k \frac{n_{k}}{n_{k-1}} \end{equation*}\]
2.2.5 Ejercicio
Suponga que se tiene esta tabla de valores
<- read.csv(text = "numero.accidentes,numero.seguros
accidentes 0,7840
1,1317
2,239
3,42
4,14
5,4
6,2
7,1
8+,0")
Construya la tabla de valores empíricos de \(k\ p_k/p_{k-1}\) y grafique estos valores contra el número de accidentes. ¿Qué se nota?
Es posible ajustar una o varias distribuciones a estos datos? Cuál(es) escogería?
Sabiendo que puede usar el comando
lm
, ¿Cuál(es) sería los parámetro(s) estimados?
2.3 Truncación y modificación en cero o clases \((a,b,1)\)
Sea \(p_{k}\) la probabilidad puntual de una variable aleatoria discreta. Es un miembro de la clase de distribuciones \((\boldsymbol{a}, \boldsymbol{b}, \mathbf{1})\) siempre que existan constantes a y b tales que
\[\begin{equation*} \frac{p_{k}}{p_{k-1}}=a+\frac{b}{k}, \quad k=2,3,4, \ldots \end{equation*}\]
La única diferencia con respecto a la clase \((a,b,0)\) es que la recursión comienza en 1 en lugar de 0. La distribución tiene la misma forma que la \((a,b,0)\) de \(k=1, \dots, \infty\) y la única modificación es en \(k=0\).
Hay dos tipos de modificaciones:
- \(p_0=0\) se le dice cero-truncada (zero-truncated).
- \(p_0>0\) se le dice cero-modificad (zero-modified).
En el libro se usa la notación para la probabilidad puntual como \(p_k^T\) para las cero-truncada y \(p_k^M\) para las cero modificadas.
Sea \(P(z)=\sum_{k=0}^{\infty} p_{k} z^{k}\) la pgf de un miembro de \((a, b, 0)\) clase. Sea \(P^{M}(z)=\) \(\sum_{k=0}^{\infty} p_{k}^{M} z^{k}\) la pgf del miembro correspondiente de la clase \((a, b, 1)\); eso es, \[\begin{equation*} p_{k}^{M}=c p_{k}, \quad k=1,2,3, \ldots \end{equation*}\]
donde \(p_{0}^{M}\) es cualquier número. Entonces, \[\begin{equation*} \begin{aligned} P^{M}(z) &=p_{0}^{M}+\sum_{k=1}^{\infty} p_{k}^{M} z^{k} \\ &=p_{0}^{M}+c \sum_{k=1}^{\infty} p_{k} z^{k} \\ &=p_{0}^{M}+c\left[P(z)-p_{0}\right] \end{aligned} \end{equation*}\] Como \(P^{M}(1)=P(1)=1\), \[\begin{equation*} 1=p_{0}^{M}+c\left(1-p_{0}\right) . \end{equation*}\] resulta en \[\begin{equation*} c=\frac{1-p_{0}^{M}}{1-p_{0}} \text { or } p_{0}^{M}=1-c\left(1-p_{0}\right) \end{equation*}\]
Además, \[\begin{equation*} \begin{aligned} P^{M}(z) &=p_{0}^{M}+\frac{1-p_{0}^{M}}{1-p_{0}}\left[P(z)-p_{0}\right] \\ &=\left(1-\frac{1-p_{0}^{A}}{1-p_{0}}\right) 1+\frac{1-p_{0}^{M}}{1-p_{0}} P(z) . \end{aligned} \end{equation*}\]
Lo cual es el promedio ponderado entre la distribución degenerada en cero y la correspondiente \((a,b,0)\). Finalmente,
\[\begin{equation*} p_{k}^{M}=\frac{1-p_{0}^{M}}{1-p_{0}} p_{k}, \quad k=1,2, \ldots \end{equation*}\]
Sea \(P^{T}(z)\) la pgf de la distribución truncada en cero correspondiente a una \((a, b, 0)\) pgf \(P(z)\). Luego, sea \(p_{0}^{M}=0\), entonces, \[\begin{equation*} P^{T}(z)=\frac{P(z)-p_{0}}{1-p_{0}} \end{equation*}\] y \[\begin{equation*} p_{k}^{T}=\frac{p_{k}}{1-p_{0}}, \quad k=1,2, \ldots \end{equation*}\] Entonces \[\begin{equation*} p_{k}^{M}=\left(1-p_{0}^{M}\right) p_{k}^{T}, \quad k=1,2, \ldots, \end{equation*}\] y \[\begin{equation*} P^{M}(z)=p_{0}^{M}(1)+\left(1-p_{0}^{M}\right) P^{T}(z) \end{equation*}\]
<- 0:10
x
<- bind_rows(
daf data.frame(
tipo = "Poisson",
x = x,
dens = dpois(x = x, lambda = 5)
),data.frame(
tipo = "Binomial Negativa",
x = x,
dens = dnbinom(x = x, size = 5, prob = 0.5)
),data.frame(
tipo = "Binomial",
x = x,
dens = dbinom(x = x, size = 10, prob = 0.5)
)
)
ggplot(daf, aes(x=x, y=dens, fill = tipo)) +
geom_bar(stat= "identity") +
facet_grid(.~tipo)
<- 0:10
x
<- bind_rows(
dafZT data.frame(
tipo = "ZT Poisson",
x = x,
dens = dztpois(x = x, lambda = 5)
),data.frame(
tipo = "ZT Binomial Negativa",
x = x,
dens = dztnbinom(x = x, size = 5, prob = 0.5)
),data.frame(
tipo = "ZT Binomial",
x = x,
dens = dztbinom(x = x, size = 10, prob = 0.5)
)
)
ggplot(dafZT, aes(x=x, y=dens, fill = tipo)) +
geom_bar(stat= "identity") +
facet_grid(.~tipo)
<- 0:10
x
<- bind_rows(
dafZM data.frame(
tipo = "ZM Poisson",
x = x,
dens = dzmpois(x = x, lambda = 5, p0 = 0.2)
),data.frame(
tipo = "ZM Binomial Negativa",
x = x,
dens = dzmnbinom(
x = x,
size = 5,
prob = 0.5,
p0 = 0.2
)
),data.frame(
tipo = "ZM Binomial",
x = x,
dens = dzmbinom(
x = x,
size = 10,
prob = 0.5,
p0 = 0.2
)
)
)
ggplot(dafZM, aes(x=x, y=dens, fill = tipo)) +
geom_bar(stat= "identity") +
facet_grid(.~tipo)
2.3.0.1 Ejercicios
Use las relaciones (6.5) y (6.6) del libro para comprobar que los valores coincides con los que se obtuvieron en los ejercicios anteriores.
En un pueblo el número de resfríos que la gente sufre al año sigue una distribución Poisson que depende de la edad de cada persona y su nivel de fumado. La distribución de la población es la siguiente:
Proporción de la población | Número promedio de resfríos | |
---|---|---|
Niños | 0.3 | 3 |
Adultos No-fumador | 0.6 | 1 |
Adulto fumador | 0.1 | 4 |
- Calcule las probabilidades que cualquier persona sufra de 0,1,2,3,4,5 resfrios en un año.
- Calcule las probabilidades de que una persona con exactamente \(k\) resfrios, sea un adulto fumador.
Suponga que \(N\vert\Lambda \sim Poisson(\Lambda)\) y que \(\Lambda ~ gamma\) media 1 y varianza 2. Determine la distribución no condicionada de \(N\).