1 Tema 3 - Introducci´ on Tema 2. Estimaci´ on puntual Criterios de comparaci´ on de estimadores: • Insesgadez. • Estimadores de m´ınima varianza. • Error cuadr´atico medio. • Consistencia. ¿C´ omo obtener estimadores? Tema 3. Estimadores de m´axima verosimilitud M´etodos de c´alculo. Propiedades. Estad´ıstica I Pedro Galeano 2 Tema 3. Estimadores de m´axima verosimilitud Los contenidos a desarrollar en este tema son los siguientes: Definici´ on y propiedades. T´ecnicas de c´alculo. Propiedades de los estimadores de m´axima verosimilitud en muestras grandes. Lecturas recomendadas: Secci´ on 7.6 del libro de Pe˜ na (2005). Estad´ıstica I Pedro Galeano 3 Ejemplo 1. Supongamos una empresa que desea determinar con que probabilidad el uso de campa˜ nas publicitarias produce aumentos en sus ventas. Para ello, toman una muestra aleatoria simple (m.a.s.) del total de campa˜ nas publicitarias realizadas y comprueban en qu´e ocasiones, estas campa˜ nas produjeron un aumento de sus ventas. Esta situaci´ on corresponde a una variable aleatoria con una distribuci´ on Bernoulli de par´ametro p. Entonces: X= 1 con probabilidad p 0 con probabilidad 1 − p donde X = 1 corresponde a la situaci´ on en que se produjo un aumento en las ventas (´ exito) y X = 0 corresponde a la situaci´ on en la que no se produjo dicho aumento (fracaso). Estad´ıstica I Pedro Galeano 4 Ejemplo 1. La probabilidad de ´exito es p, que es un valor desconocido. El objetivo es, una vez que hemos conocido los datos de una muestra aleatoria simple (m.a.s.), (x1, . . . , xn), estimar el verdadero valor de p mediante los datos. ¿C´ omo podemos hacer esto? Definici´ on 1. Sea (X1, X2, . . . , Xn) una muestra aleatoria simple de una poblaci´ on X con funci´ on de probabilidad Pθ (o con funci´ on de densidad fθ ) donde θ = (θ1, θ2, . . . , θk ) es un vector de par´ametros. La funci´ on de verosimilitud de la muestra (x1, x2, . . . , xn) es: L(x1, x2, . . . , xn; θ ) = Pθ (x1)Pθ (x2) . . . Pθ (xn), L(x1, x2, . . . , xn; θ ) = fθ (x1)fθ (x2) . . . fθ (xn). La funci´ on de verosimilitud L(x1, x2, . . . , xn; θ ) proporciona, para cada valor del vector de par´ametros θ = (θ1, θ2, . . . , θk ), la probabilidad de obtener la muestra (x1, x2, . . . , xn). Estad´ıstica I Pedro Galeano 5 Ejemplo 1. La funci´ on de probabilidad de una distribuci´ on Bernoulli de par´ametro p es: 1−x Pp (x) = px (1 − p) . Por lo tanto, la funci´ on de verosimilitud de una muestra (0, 1, 1, 0, 1) es: 2 L (0, 1, 1, 0, 1; p) = (1 − p) · p · p · (1 − p) · p = p3 (1 − p) que proporciona, para cada valor de p, la probabilidad de obtener la muestra (0, 1, 1, 0, 1). ¿Cual es el valor de p que proporciona la m´ axima probabilidad de obtener la muestra (0, 1, 1, 0, 1)? Estad´ıstica I Pedro Galeano 6 Función de verosimilitud de los datos de una Bernoulli 0.035 0.03 0.025 0.02 0.015 0.01 0.005 0 Estad´ıstica I 0 0.1 0.2 0.3 0.4 0.5 p 0.6 0.7 0.8 0.9 1 Pedro Galeano 7 Definiciones Definici´ on 2. Sea (X1, X2, . . . , Xn) una muestra aleatoria de una poblaci´ on X con funci´ on de verosimilitud L(x1, x2, . . . , xn; θ ) donde θ = (θ1, θ2, . . . , θk ) es un vector de par´ametros. Un estimador, θ = (θ1, θ2, . . . , θk ) es el estimador de m´ axima verosimilitud de θ si L(x1, x2, . . . , xn; θ ) = m´ ax L(x1, x2, . . . , xn; θ ), θ ∈Θ para cada (x1, x2, . . . , xn) ∈ X . Veros´ımil: 1. adj. Que tiene apariencia de verdadero. 2. adj. Cre´ıble por no ofrecer car´acter alguno de falsedad. Real Academia Espa˜ nola c Estad´ıstica I Pedro Galeano 8 Definiciones Por lo general, resulta m´as c´ omodo trabajar con ln fθ en lugar de con fθ , y buscamos el EMV mediante: ln L(x1, x2, . . . , xn; θ ) = m´ ax ln L(x1, x2, . . . , xn; θ ). θ ∈Θ La funci´ on (x1, x2, . . . , xn; θ ) = ln L(x1, x2, . . . , xn; θ ) recibe el nombre de funci´ on soporte. Si la funci´ on de verosimilitud es derivable respecto de θ entonces el sistema de ecuaciones de verosimilitud: ∂ (x1, x2, . . . , xn; θ ) = 0, para j = 1, 2, . . . , k, ∂θj proporcionan los m´aximos relativos de (x1, x2, . . . , xn, θ ). Candidatos a EMV Estad´ıstica I Pedro Galeano 9 Ejemplo 1. La funci´ on soporte de la muestra es: 2 (0, 1, 1, 0, 1; p) = ln p3 (1 − p) = 3 ln p + 2 ln (1 − p) . Entonces, la ecuaci´ on de verosimilitud es: 2 ∂ (0, 1, 1, 0, 1; p) 3 = − = 0, ∂p p 1−p de donde obtenemos el valor: p = 0,6. ¿Es un m´aximo? ∂ 2 (0, 1, 1, 0, 1; p) 3 2 25 50 125 =− 2− =− − =− < 0. 2 ∂ 2p p 3 4 6 (1 − p) |p=bp |p=b p Por lo tanto, como es un m´aximo, p = 0,6 es el estimador m´aximo verosimil. Estad´ıstica I Pedro Galeano 10 Ejemplo 2. Obtenemos el estimador m´aximo verosimil de una muestra (x1, . . . , xn) generada por una distribuci´ on exponencial de par´ametro λ. La funci´ on de densidad de una exponencial de par´ametro λ es: fλ (x) = λ exp (−λx) , λ > 0. La funci´ on de verosimilitud de una muestra (x1, . . . , xn) es entonces: n n λ exp (−λxi) = λn exp −λ L (x1, . . . , xn; λ) = i=1 xi . i=1 La funci´ on soporte es: n (x1, . . . , xn; λ) = n ln λ − λ xi. i=1 Estad´ıstica I Pedro Galeano 11 Derivando respecto a λ e igualando a 0, obtenemos: n ∂ (x1, . . . , xn; λ) n = − xi = 0 ⇐⇒ λ = ∂λ λ i=1 n . n i=1 xi ¿Es un m´aximo? ∂ 2 (x1, . . . , xn; λ) n n =− 2 = − < 0. b b ∂ 2λ λ |λ=λ |λ=λ λ2 Por lo tanto, λ = Estad´ıstica I Pnn i=1 xi es el estimador m´aximo verosimil de λ. Pedro Galeano 12 Propiedades de los EMV Principio de m´ axima verosimilitud: Si θ es el estimador m´aximo veros´ımil de θ , entonces µ = h(θ ) es el E.M.V. de µ = h(θθ ). Consistencia y distribuci´ on asint´ otica: Bajo ciertas condiciones: θ es un estimador consistente de θ . θ es asint´ oticamente normal: √ A n(θ − θ ) ∼ N (0, i(θθ )−1), donde: i(θθ ) = E ∂ ln fθ (X) ∂θθ 2 ∂2 = −E ln fθ (X) . ∂θθ 2 es la informaci´ on de Fisher correspondiente a una observaci´ on. Estad´ıstica I Pedro Galeano 13 Ejemplo 3. En el Ejemplo 2 obtuvimos que el EMV de λ es λ = 1/x. Obtengamos su distribuci´ on asint´ otica. Tenemos que: √ A n(λ − λ) ∼ N (0, i(λ)−1), donde: ∂ ln (λ exp (−λX)) ∂λ i(λ) = E =E Por lo tanto, 1 −X λ √ 2 = E X2 − 2 =E ∂ (ln λ − λX) ∂λ 2 = X 1 2 2 1 1 + 2 = 2 − 2 + 2 = 2. λ λ λ λ λ λ A n(λ − λ) ∼ N (0, λ2), o equivalentemente: √ Estad´ıstica I 2 λ A n( − 1) ∼ N (0, 1). λ Pedro Galeano 14 Propiedades de los EMV Dado que √ A −1 n θ − θ ∼ N 0, i (θθ ) , tenemos que equivalentemente: A −1 θ ∼ N θ , (ni (θθ )) . Insesgadez asint´ otica: E[θ ] → θ . Eficiencia asint´ otica: Var[θ ] → (n i(θθ ))−1. A veces, se escribe I(θθ )−1 = (n i(θθ ))−1. Estad´ıstica I Pedro Galeano 15 Ejemplo 4. Vamos a obtener el EMV de µ para una N µ, σ 2 suponiendo que σ 2 es conocida. La funci´ on de densidad es: 2 1 (x − µ) fµ (x) = √ exp − 2σ 2 2πσ . La funci´ on de verosimilitud de una muestra (x1, . . . , xn) es entonces: n 2 (xi − µ) 1 √ L (x1, . . . , xn; µ) = exp − 2 2σ 2πσ i=1 −n 2 = (2π) Estad´ıstica I σ n 2 −2 1 exp − 2 2σ = n 2 (xi − µ) . i=1 Pedro Galeano 16 La funci´ on soporte es: n n 1 2 (x1, . . . , xn; µ) = − ln 2π − ln σ − 2 2 2 2σ n 2 (xi − µ) . i=1 Derivando respecto a µ e igualando a 0: 1 ∂ (x1, . . . , xn; θ) = 2 ∂µ σ n 1 (xi − µ) = 2 σ i=1 1 ⇐⇒ µ = n n xi − i=1 nµ = 0 ⇐⇒ 2 σ n xi = x. i=1 ¿Es un m´aximo? ∂ 2 (x1, . . . , xn; µ) n = − < 0. 2 2 ∂ µ σ |µ=b µ Estad´ıstica I Pedro Galeano 17 Por lo tanto, µ = x es el EMV de µ. ¿Cual es la distribuci´ on asint´ otica? Tenemos: 1 1 (X − µ)2 fµ (X) = √ exp − 2 σ2 2πσ 1 1 1 2 ln fµ (X) = − ln 2π − ln σ 2 − 2 (X − µ) . 2 2 2σ Obtenemos la derivadas parciales respecto de µ: X −µ ∂ fµ (X) = . 2 ∂µ σ Estad´ıstica I Pedro Galeano 18 Entonces, i (µ) = E X −µ σ2 2 = 1 1 2 E (X − µ) = . 4 2 σ σ Por lo tanto, √ A n (µ − µ) ∼ N 0, σ 2 A ⇐⇒ µ ∼ N σ2 . µ, n Notar que en este caso la distribuci´ on es exacta por el Lema de Fisher. Estad´ıstica I Pedro Galeano 19 Recapitulaci´ on Tema 3. Estimadores de m´axima verosimilitud Definici´ on del estimador MV. T´ecnicas de c´alculo. ¿C´ omo obtener estimadores? Propiedades de los estimadores de MV en muestras grandes. • Insesgadez asint´ otica. • Asint´ oticamente de m´ınima varianza. • Consistentes. • Distribuci´ on asint´ otica normal. ¿Por qu´e elegir un EMV? Estad´ıstica I Pedro Galeano 20 Tema 2. Estimaci´ on puntual Tema 3. Estimadores de m´axima verosimilitud Generalizaci´ on Tema 4. Intervalos de confianza Definici´ on. Intervalos de confianza para medias y varianzas en poblaciones normales. Intervalos de confianza en muestras grandes. Determinaci´ on del tama˜ no muestral. Estad´ıstica I Pedro Galeano
© Copyright 2024