Tema 4 - Introducción Tema 3. Estimación puntual ¿Cómo obtener

1
Tema 4 - Introducci´
on
Tema 3. Estimaci´
on puntual
Criterios de comparaci´
on de estimadores:
• Insesgadez.
• Estimadores de m´ınima varianza.
• Error cuadr´atico medio.
• Consistencia.
¿C´
omo obtener
estimadores?
Tema 4. Estimadores de m´axima verosimilitud
M´etodos de c´alculo.
Propiedades.
Estad´ıstica I
Andr´es M. Alonso
2
Distribuci´
on temporal del temario
Tema 1
Tema 2
Tema 3
Tema 4
Tema 5
Tema 6
Tema 7
1
T
T
T
T
T
T
T
2
T
T
T
T
T
T
T
7
3
T
T
T
T
T
T
T
7
4
P
P
P
P
P
P
P
7
7
T denota una hora
de clase
de 0teor´ıa 7
0
0
5
6
7
8
9
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
T
P
P
P
P
P
P
P
P
P
P
P
P
6
0
6
0
6
0
6
6
6
6
P denota una hora de clase pr´actica
Estad´ıstica I
Andr´es M. Alonso
58
19
3
Tema 4. Estimadores de m´axima verosimilitud
Los contenidos a desarrollar en este tema son los siguientes:
Definici´
on y propiedades.
T´ecnicas de c´alculo.
Propiedades de los estimadores de m´axima verosimilitud en muestras
grandes.
Lecturas recomendadas: Secci´
on 7.6 del libro de Pe˜
na (2005).
Estad´ıstica I
Andr´es M. Alonso
4
Ejemplo 1. En una urna hay 4 bolas que pueden ser blancas o negras. La
proporci´
on, θ, de bolas blancas en la urna es desconocida y puede tomar valores
en Θ = {0, 1/4, 1/2, 3/4, 1}. Para obtener m´as informaci´
on extraemos de la
urna 2 bolas con reemplazamiento. Supongamos que la primera bola observada
es blanca (B) y la segunda es negra (N). Si calculamos la probabilidad de
obtener ese resultado para cada valor posible de θ obtenemos:

0
si θ = 0




 3/16 si θ = 1/4
1/4 si θ = 1/2
Pr {B, N|θ} =


3/16 si θ = 3/4



0
si θ = 1
¿Qu´e valor de θ te resulta m´as veros´ımil?
Veros´ımil:
1. adj. Que tiene apariencia de verdadero.
2. adj. Cre´ıble por no ofrecer car´acter alguno de falsedad.
Real Academia Espa˜
nola c
Estad´ıstica I
Andr´es M. Alonso
5
Definiciones
Definici´
on 1. Sea (X1, X2, . . . , Xn) una muestra aleatoria de una poblaci´
on
X con funci´
on de probabilidad Pθ (o con funci´
on de densidad fθ ) donde
θ = (θ1, θ2, . . . , θk ) es un vector de par´ametros. La funci´
on de verosimilitud,
L(x1, x2, . . . , xn; θ ), de la muestra (x1, x2, . . . , xn) es la funci´
on de probabilidad
(o de densidad) de (X1, X2, . . . , Xn) evaluada en (x1, x2, . . . , xn).
Definici´
on 2. Sea (X1, X2, . . . , Xn) una muestra aleatoria simple de
una poblaci´
on X con funci´
on de probabilidad Pθ (o con funci´
on de
densidad fθ ) donde θ = (θ1, θ2, . . . , θk ) es un vector de par´ametros.
La funci´
on de verosimilitud de la muestra (x1, x2, . . . , xn) es:
L(x1, x2, . . . , xn; θ ) = Pθ (x1)Pθ (x2) . . . Pθ (xn),
o
Estad´ıstica I
L(x1, x2, . . . , xn; θ ) = fθ (x1)fθ (x2) . . . fθ (xn).
Andr´es M. Alonso
6
Ejemplo 1. Por simplicidad supondremos que θ toma valores en Θ =
{1/4, 1/2, 3/4}. Definimos la variable X que toma valor 1 si sale blanca
y 0 si sale negra.
(a) Escriba la funci´
on de verosimilitud en el caso de que las bolas se obtengan
con reemplazamiento (m.a.s.).
Definici´
on 2.
L(x1, x2; θ) = θx1 (1 − θ)1−x1
θx2 (1 − θ)1−x2 .
(b) Escriba la funci´
on de verosimilitud en el caso de que las bolas se obtengan
Definici´
on 1.
sin reemplazamiento (No es m.a.s.).
L(x1, x2; θ) = θx1 (1 − θ)1−x1
Estad´ıstica I
4θ − x1
3
x2
1−
4θ − x1
3
1−x2
Andr´es M. Alonso
7
Definiciones
Definici´
on 3. Sea (X1, X2, . . . , Xn) una muestra aleatoria de una poblaci´
on
X con funci´
on de verosimilitud L(x1, x2, . . . , xn; θ ) donde θ = (θ1, θ2, . . . , θk )
es un vector de par´ametros. Un estimador, θ = θ1, θ2, . . . , θk ) es el estimador
de m´
axima verosimilitud de θ si
L(x1, x2, . . . , xn; θ ) = m´
ax L(x1, x2, . . . , xn; θ ),
θ ∈Θ
para cada (x1, x2, . . . , xn) ∈ X .
Ejemplo 1. (c) Obtenga el estimador m´aximo veros´ımil (E.M.V.) de θ en el
caso de muestras con reemplazamiento.
L(x1, x2; θ) = θ(x1+x2)(1−θ)(2−x1−x2).
Tenemos que Θ = {1/4, 1/2, 3/4},
as´ı que bastar´a con evaluar la funci´
on
de verosimilitud en estos valores.
Estad´ıstica I
x1 + x2
θ
0.25
0.50
0.75
0
0.5625
0.2500
0.0625
1
0.1875
0.2500
0.1875
2
0.0625
0.2500
0.5625
Andr´es M. Alonso
8
Definiciones
A menudo resulta m´as c´
omodo trabajar con ln fθ en lugar de con fθ , y
buscamos el EMV mediante:
ln L(x1, x2, . . . , xn; θ ) = m´
ax ln L(x1, x2, . . . , xn; θ ).
θ ∈Θ
La funci´
on (x1, x2, . . . , xn; θ ) = ln L(x1, x2, . . . , xn; θ ) recibe el nombre de
funci´
on soporte.
Si la funci´
on de verosimilitud es derivable respecto de θ entonces el sistema
de ecuaciones de verosimilitud:
∂
(x1, x2, . . . , xn; θ ) = 0, para j = 1, 2, . . . , k,
∂θj
x, θ ).
proporcionan los m´aximos relativos de (x
Estad´ıstica I
Candidatos a EMV
Andr´es M. Alonso
9
Ejemplo 1. (d) Suponiendo que Θ = [0, 1], obtenga el estimador m´aximo
veros´ımil (E.M.V.) de θ en el caso de muestras con reemplazamiento.
(x1, x2; θ) = (x1 + x2) ln(θ) + (2 − x1 − x2) ln(1 − θ).
∂ (x1,x2;θ)
1
1
=
(x
+
x
)
−(2
−
x
−
x
)
1
2 θ
1
2 1−θ .
∂θ
Igualando a cero, obtenemos: θ =
x1+x2
2 .
¿Es el EMV?
(e) Obtenga la estimaci´
on m´aximo veros´ımil para la muestra x1 = 1 y x2 = 0.
Bastar´a evaluar el estimador obtenido: θ =
x1+x2
1
=
2
2.
Ejercicio: Apartados (c) y (e) con muestras sin reemplazamiento.
Estad´ıstica I
Andr´es M. Alonso
10
Ejemplo 2. Obtenga los E.M.V. de los par´ametros de las siguientes distribuciones suponiendo que dispone de una muestra aleatoria simple de tama˜
no
n:
X ∼ Bernoulli(p).
X ∼ N (µ, σ 2) con σ conocida.
X ∼ Poisson(λ).
X ∼ N (µ, σ 2) con µ conocida.
X ∼ Exponencial(λ).
X ∼ N (µ, σ 2).
Ejemplo 3. Obtenga el E.M.V. para el par´ametro θ de una distribuci´
on
U(0, θ).
Estad´ıstica I
Andr´es M. Alonso
11
Propiedades de los EMV
Principio de m´
axima verosimilitud: Si θ es el estimador m´aximo veros´ımil
de θ, entonces µ = h(θ) es el E.M.V. de µ = h(θ).
Consistencia y distribuci´
on asint´
otica:
Bajo ciertas condiciones, se tiene que:
θ es un estimadores consistente de θ.
θ es asint´
oticamente normal:
√
A
n(θ − θ) ∼ N (0, i(θ)−1),
2
∂
donde i(θ) = E ∂θ
ln f (X; θ)
es la cantidad de informaci´
on de
Fisher correspondiente a una observaci´
on.
Estad´ıstica I
Andr´es M. Alonso
12
Ejemplo 4. (a) Obtenga el EMV del par´ametro θ = e−λ = Pr(X = 0) de
una distribuci´
on P oisson(λ) si dispone de una m.a.s. de tama˜
no n.
En el Ejemplo 2 obtuvimos que el EMV de λ es λ = x
¯, entonces, por el
principio de verosimilitud, el EMV de θ es: θ = e−λ = e−¯x.
(b) Obtenga la distribuci´
on asint´
otica de λ.
Tenemos que
i(λ) = E
= E
Finalmente,
Estad´ıstica I
√
√
A
n(λ − λ) ∼ N (0, i(λ)−1),
∂
λX e−λ
ln
∂λ
X!
X
−1
λ
2
2
=E
donde
∂
(X ln λ − λ − ln X!)
∂λ
2
X2
X
λ + λ2
λ
1
=E 2 −2 +1 =
−2 +1= .
λ
λ
λ2
λ
λ
A
n(λ − λ) ∼ N (0, λ).
Andr´es M. Alonso
13
(c) Obtenga la distribuci´
on asint´
otica de θ.
Tenemos que
A
n(θ − θ) ∼ N (0, i(θ)−1),
λX e−λ
∂
ln
∂θ
X!
i(θ) = E
2
=E
donde
∂
(− ln(θ))X θ
ln
∂θ
X!
∂
(X ln(− ln(θ)) + ln(θ) − ln X!)
∂θ
= E
=
√
2
=E
2
1
1
X
+
θ ln θ
θ
2
1
− ln θ + ln2 θ
1
1
λ + λ2
λ
ln θ
+
2
+
=
−
2
+
=
−
.
2
2
2
2
2
2
2
2
2
θ ln θ θ
θ ln θ θ
θ ln θ
θ ln θ
θ ln θ
Finalmente,
√
A
n(θ − θ) ∼ N (0, −θ2 ln θ).
La informaci´
on de Fisher tambi´en puede calcularse mediante:
∂2
i(θ) = −E
ln f (X; θ) .
2
∂θ
Estad´ıstica I
Andr´es M. Alonso
14
Propiedades de los EMV
Insesgadez asint´
otica:
E[θ] → θ.
Eficiencia asint´
otica:
A
Var[θ] = 1/E
∂
X ; θ)
ln f (X
∂θ
2
= I(θ)−1 = (n i(θ))−1.
Cota de Frechet–Cramer–Rao.
Var(ϑ) ≥ I(θ)−1,
donde ϑ es un estimador centrado cualesquiera e I(θ) es la
informaci´
on de Fisher de una muestra de tama˜
no n.
Estad´ıstica I
Andr´es M. Alonso
15
Ejemplo 5. Supongamos que los rendimientos de las acciones de la empresa
SEGURA.SL siguen una distribuci´
on normal de media µ euros y varianza σ 2. Se
toma una m.a.s. de 20 rendimientos y se tiene:
5,29 3,66 5,71 6,62 4,30 5,85 6,25 3,40 3,55 5,57
4,60 5,69 5,81 5,71 6,29 5,66 6,19 3,79 4,98 4,84
(a) Calcular los valores de los estimadores m´aximo veros´ımiles de µ y σ en esa
muestra.
En el Ejemplo 2 obtuvimos que el EMV de (µ, σ 2) es (¯
x, s2), entonces, por el
principio de verosimilitud, tenemos que (µ, σ) = (¯
x, s).
x
¯=
s=
1
(5,29 + 3,66 + · · · + 4,84) = 5,188,
20
1
((5,29 − 5,188)2 + (3,66 − 5,188)2 + · · · + (4,84 − 5,188)2) ≈ 0,9712.
20
Estad´ıstica I
Andr´es M. Alonso
16
Ejemplo 5. (b) El VaR (value at risk) es una medida de la m´axima p´erdida esperada en una cartera, durante per´ıodo de tiempo espec´ıfico con una
probabilidad dada, α. Una manera de calcular el VaR es suponiendo que los
beneficios diarios de un valor se distribuyen de acuerdo a la distribuci´
on normal.
Esta simplificaci´
on permiti´
o un importante avance de la teor´ıa de carteras, y es
frecuentemente empleada en c´alculos estad´ısticos financieros.
La empresa SEGURA.SL considera como p´erdidas todos los rendimientos inferiores a 5 euros por acci´
on. Es decir, los beneficios siguen una distribuci´
on
N (µ − 5, σ 2). En ese caso, las p´erdidas m´aximas esperadas para un nivel α
son:
V aR = µ − 5 − zασ.
Obtenga la distribuci´
on asint´
otica del estimador
V aR = µ − 5 − zασ.
Estad´ıstica I
Andr´es M. Alonso
17
En primer lugar, obtenemos la distribuci´
on de (µ, σ).
Tenemos,
1
1 (x − µ)2
f (x) = √
exp −
2 σ2
2πσ
√
1 (x − µ)2
.
ln f (x) = − ln 2π − ln σ −
2 σ2
Obtenemos la derivadas parciales respecto de µ y σ:
∂
(x − µ)
ln f (x) =
∂µ
σ2
∂
1
(x − µ)2
ln f (x) = − −
∂σ
σ
σ3
y la matriz de segundas derivadas (Jacobiano):
∂2
∂µ∂µ
∂2
∂σ∂µ
Estad´ıstica I
ln f (x)
ln f (x)
∂2
∂µ∂σ
∂2
∂σ∂σ
ln f (x)
ln f (x)
=
−2 (x−µ)
σ3
− σ12
−2 (x−µ)
σ3
1
σ2
−
(x−µ)2
3 σ4
.
Andr´es M. Alonso
18
Obtenemos la matriz de informaci´
on:
1
σ2
2 (X−µ)
σ3
i(θ) = i(µ, σ) = E
2 (X−µ)
σ3
− σ12
=
(X−µ)2
3 σ4
+
1
σ2
0
− σ12
,
σ2
0
0
σ2
+ 3 σ4
y la distribuci´
on de (µ, σ) es:,
√
n
µ
σ
−
µ
σ
A
−1
∼ N (00, i(θ)
)=N
Finalmente, como V aR = µ − 5 − zασ = [1, −zα]
√
Estad´ıstica I
n V aR − V aR
A
∼ N
2
0, σ +
0
0
µ
σ
σ
zα2
0
σ2
2
.
− 5, obtenemos:
2
2
.
Andr´es M. Alonso
19
Recapitulaci´
on
Tema 4. Estimadores de m´axima verosimilitud
Definici´
on del estimador MV.
T´ecnicas de c´alculo.
¿C´
omo obtener
estimadores?
Propiedades de los estimadores de MV
en muestras grandes.
• Insesgadez asint´
otica.
• Asint´
oticamente de m´ınima varianza.
• Consistentes.
• Distribuci´
on asint´
otica normal.
¿Por qu´e elegir un EMV?
Estad´ıstica I
Andr´es M. Alonso
20
Tema 3. Estimaci´
on puntual
Tema 4. Estimadores de m´axima verosimilitud
Generalizaci´
on
Tema 5. Intervalos de confianza
Definici´
on.
Intervalos de confianza para medias y varianzas en
poblaciones normales.
Intervalos de confianza en muestras grandes.
Determinaci´
on del tama˜
no muestral.
Estad´ıstica I
Andr´es M. Alonso