Estimación Insesgada de Varianza Mínima

EL7002 - Estimación y Detección
Clase No.2: Estimación Insesgada de Varianza Mínima
Patricio Parada
Departamento de Ingeniería Eléctrica
Universidad de Chile
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
1/31
Contenidos de la Clase I
Introducción
Estimadores Insesgados
Distribución de un Estimador
Criterio de Varianza Mínima
Estimador Insesgado de Varianza Mínima
Cota Inferior de Cramer-Rao
Resumen y Lecturas
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
2/31
Hoja de Ruta
A partir de este momento comenzaremos a ver criterios y técnicas para
determinar buenos estimadores de un parámetro (o conjunto de ellos) que son
desconocidos.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
3/31
Hoja de Ruta
A partir de este momento comenzaremos a ver criterios y técnicas para
determinar buenos estimadores de un parámetro (o conjunto de ellos) que son
desconocidos.
El criterio que veremos en esta clase se denomina de varianza mínima, ya que
utiliza como función discriminadora la varianza del estimador bajo estudio.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
3/31
Hoja de Ruta
A partir de este momento comenzaremos a ver criterios y técnicas para
determinar buenos estimadores de un parámetro (o conjunto de ellos) que son
desconocidos.
El criterio que veremos en esta clase se denomina de varianza mínima, ya que
utiliza como función discriminadora la varianza del estimador bajo estudio.
Vamos a considerar una clase particular de estimadores denominados
insesgados, que tienen un buen desempeño y son realizables (causales).
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
3/31
Estimadores Insesgados (1)
Un estimador es insesgado si - en promedio - entrega el valor correcto del
parámetro desconocido.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
4/31
Estimadores Insesgados (1)
Un estimador es insesgado si - en promedio - entrega el valor correcto del
parámetro desconocido.
Si θ ∈ Θ entonces podemos restringir nuestra atención al caso en que
E[θ̂] = θ, θ ∈ Θ.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(1)
4/31
Estimadores Insesgados (1)
Un estimador es insesgado si - en promedio - entrega el valor correcto del
parámetro desconocido.
Si θ ∈ Θ entonces podemos restringir nuestra atención al caso en que
E[θ̂] = θ, θ ∈ Θ.
(1)
Ejemplo 1: consideremos el problema de estimar un parámetro desconocido
A ∈ R a partir del modelo
x[n] = A + w[n]
(2)
donde {w[n]} es i.i.d. ∼ N (0, 1).
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
4/31
Estimadores Insesgados (2)
Asumamos que tenemos N observaciones de x[n] de forma tal que definimos el
estimador
 =
N−1
1 !
x[n]
N
(3)
n=0
Es fácil mostrar que  es insesgado, ya que
E[Â] =
=
N−1
1 !
E[x[n]]
N
1
N
n=0
N−1
!
A
n=0
= A.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
5/31
Estimadores Insesgados (3)
Ejemplo 2: Considere X ∼ N (0, σ 2 ) y las realizaciones x[0], x[1], . . . , x[N − 1].
Definimos el estimador de la varianza de X como:
σ̂ 2 =
N−1
1 ! 2
x [N]
N
(4)
n=0
Luego,
E[σ̂ 2 ] =
N−1
1 !
E[x2 [N]]
N
n=0
2
=σ .
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
6/31
Estimadores Insesgados (4)
0.25
0.2
0.2
0.15
0.15
pÂ
pσˆ2
0.25
0.1
0.1
0.05
0.05
0
-0.1
-0.05
0
a
0.05
0.1
0
0.85 0.9 0.95 1 1.05 1.1 1.15 1.2
σ2
Figura: Distribución empírica (histograma) de los estimadores  y σˆ2 producidos via
simulación con N = 1000 y 500 simulaciones; los parámetros reales son A = 0 y σ 2 = 1.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
7/31
Distribución de un Estimador (1)
En general, si conocemos el modelo paramétrico que relaciona las observaciones
con el parámetro desconocido, podemos hacer algo de álgebra y determinar en
forma analítica la distribución de probabilidad del parámetro en cuestión.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
8/31
Distribución de un Estimador (1)
En general, si conocemos el modelo paramétrico que relaciona las observaciones
con el parámetro desconocido, podemos hacer algo de álgebra y determinar en
forma analítica la distribución de probabilidad del parámetro en cuestión.
Si el estimador es insesgado, es habitual que la distribución del parámetro sea
simétrica y centrada en torno al valor real del parámetro.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
8/31
Distribución de un Estimador (1)
En general, si conocemos el modelo paramétrico que relaciona las observaciones
con el parámetro desconocido, podemos hacer algo de álgebra y determinar en
forma analítica la distribución de probabilidad del parámetro en cuestión.
Si el estimador es insesgado, es habitual que la distribución del parámetro sea
simétrica y centrada en torno al valor real del parámetro.
Sin embargo, existen casos donde esto no se cumple:
1
σ¯2 = (x2 [0] + x2 [1])
2
(5)
se distribuye en forma exponencial con parámetro 1/σ 2 :
f (σ̄ 2 ) =
P. Parada, DIE-UCh
" σ̄ 2 #
1
exp
− 2 .
σ2
σ
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(6)
8/31
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0.85 0.90.95 1 1.05 1.1 1.15 1.2 1.25
σ2
pσ¯2
pσˆ2
Distribución de un Estimador (2)
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
-2
0
2
4
6
8
10 12
σ2
Figura: Distribución empírica (histograma) de los estimadores σˆ2 y σ¯2 producidos via
simulación con N = 1000 y 500 simulaciones; los parámetros reales son A = 0 y σ 2 = 1.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
9/31
Criterio de Varianza Mínima
En general, el diseño de un estimador se realizará siguiendo un criterio de
optimalidad, el que habitualmente es el error cuadrático medio mínimo (MMSE).
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
10/31
Criterio de Varianza Mínima
En general, el diseño de un estimador se realizará siguiendo un criterio de
optimalidad, el que habitualmente es el error cuadrático medio mínimo (MMSE).
Definición: Error Cuadrático Medio
El error cuadrático medio (MSE: Mean Square Error) entre un estimador θ̂ y θ se
define como
mse(θ̂) = E[(θ̂ − θ)2 ].
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(7)
10/31
Costo de emplear un estimador sesgado
El costo de emplear un estimador sesgado puede ser determinado directamente
de (7):
mse((θ̂) = E[(θ̂ − E[θ̂] + E[θ̂] − θ)2 ]
(8a)
= E[(θ̂ − E[θ̂])2 ] + 2E[(θ̂ − E[θ̂])](E[θ̂] − θ]) + E[(E[θ̂] − θ)2 ]
$ %& '
(8b)
= Var(θ̂) + 2b(θ)(E[θ̂] − E[θ̂]) + b2 (θ)
(8c)
=
b2 (θ)
$ %& '
(8d)
b(θ)
Var(θ̂)
$ %& '
+
Varianza del Estimador
Sesgo del Estimador
La función b(θ) representa el sesgo del estimador.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
11/31
¿Son los Estimadores MMSE Realizables? (1)
Una de las dificultades centrales de un estimador mmse es que puede terminar
dependiendo del parámetro que queremos estimar, lo que lo hace no realizable.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
12/31
¿Son los Estimadores MMSE Realizables? (1)
Una de las dificultades centrales de un estimador mmse es que puede terminar
dependiendo del parámetro que queremos estimar, lo que lo hace no realizable.
Consideremos el estimador sesgado:
 = a
N−1
1 !
x[n].
N
n=0
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
12/31
¿Son los Estimadores MMSE Realizables? (1)
Una de las dificultades centrales de un estimador mmse es que puede terminar
dependiendo del parámetro que queremos estimar, lo que lo hace no realizable.
Consideremos el estimador sesgado:
 = a
N−1
1 !
x[n].
N
n=0
Su valor esperado es E[Â] = a · A = A + (a − 1)A y su error cuadrático medio es
$ %& '
b(A)
mse(Â) =
P. Parada, DIE-UCh
a2 A2
+ (a − 1)2 A2 .
N
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
12/31
¿Son los Estimadores MMSE Realizables? (2)
¿Cuál es el valor de a que minimiza el mse(Â)?
dmse(Â)
σ2
= 2a + 2(a − 1)A2 = 0
da
N
A2
⇒a= 2
.
σ /N + A2
Es habitual que la estimación de parámetros via el criterio de error cuadrático
medio mínimo arroje soluciones no realizables, por lo que en general no se
emplea en este tipo de problemas.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
13/31
¿Son los Estimadores MMSE Realizables? (2)
¿Cuál es el valor de a que minimiza el mse(Â)?
dmse(Â)
σ2
= 2a + 2(a − 1)A2 = 0
da
N
A2
⇒a= 2
.
σ /N + A2
Es habitual que la estimación de parámetros via el criterio de error cuadrático
medio mínimo arroje soluciones no realizables, por lo que en general no se
emplea en este tipo de problemas.
En su lugar, vamos a emplear un criterio de varianza mínima sujeto a la
restricción
E[θ̂] = θ.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(9)
13/31
Existencia del Estimador Insesgado de Varianza Mínima
Necesitamos determinar si el estimador insesgado de mínima varianza (MVU:
minimum variance unbiased) existe, y cuando lo hace, nos gustaría saber cómo
encontrarlo.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
14/31
Existencia del Estimador Insesgado de Varianza Mínima
Necesitamos determinar si el estimador insesgado de mínima varianza (MVU:
minimum variance unbiased) existe, y cuando lo hace, nos gustaría saber cómo
encontrarlo. En general, la existencia no está garantizada pues puede ser que el
estimador de varianza mínima sea

g (x[0], . . . , x[N − 1])
1
θ̂ =
g (x[0], . . . , x[N − 1])
2
θ ∈ Θ1
θ ∈ Θ2
(10)
con Θ = Θ1 ∪ Θ2 .
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
14/31
Cálculo del Estimador Insesgado de Varianza Mínima
El estimador insesgado de varianza mínima, aunque exista, puede resultar
bastante complejo de encontrar.
1
Cramer-Rao Lower Bound
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
15/31
Cálculo del Estimador Insesgado de Varianza Mínima
El estimador insesgado de varianza mínima, aunque exista, puede resultar
bastante complejo de encontrar.
Aunque no existe una técnica precisa para hacerlo, al menos vamos a ver un
procedimiento que puede ayudarnos a encontrarlo:
1
Cramer-Rao Lower Bound
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
15/31
Cálculo del Estimador Insesgado de Varianza Mínima
El estimador insesgado de varianza mínima, aunque exista, puede resultar
bastante complejo de encontrar.
Aunque no existe una técnica precisa para hacerlo, al menos vamos a ver un
procedimiento que puede ayudarnos a encontrarlo:
1 Calcular la cota inferior de Cramer-Rao (CRLB)1 y determinar si existe algún
estimador que la satisfaga.
1
Cramer-Rao Lower Bound
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
15/31
Cálculo del Estimador Insesgado de Varianza Mínima
El estimador insesgado de varianza mínima, aunque exista, puede resultar
bastante complejo de encontrar.
Aunque no existe una técnica precisa para hacerlo, al menos vamos a ver un
procedimiento que puede ayudarnos a encontrarlo:
1 Calcular la cota inferior de Cramer-Rao (CRLB)1 y determinar si existe algún
estimador que la satisfaga.
2 Aplicar el teorema de Rao-Blackwell-Lehmann-Scheffe (RBLS)
1
Cramer-Rao Lower Bound
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
15/31
Cálculo del Estimador Insesgado de Varianza Mínima
El estimador insesgado de varianza mínima, aunque exista, puede resultar
bastante complejo de encontrar.
Aunque no existe una técnica precisa para hacerlo, al menos vamos a ver un
procedimiento que puede ayudarnos a encontrarlo:
1 Calcular la cota inferior de Cramer-Rao (CRLB)1 y determinar si existe algún
estimador que la satisfaga.
2 Aplicar el teorema de Rao-Blackwell-Lehmann-Scheffe (RBLS)
3 Restringir aun más la clase de estimadores no sólo a ser insesgados pero
además lineales, y determinar si el estimador de varianza mínima en este
nuevo conjunto.
1
Cramer-Rao Lower Bound
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
15/31
1.2 Cota Inferior de Cramer-Rao
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
16/31
Cotas de Desempeño
Una manera de construir estimadores insesgados de varianza mínima es
determinando una cota para la varianza que un estimador cualquiera puede
tener.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
17/31
Cotas de Desempeño
Una manera de construir estimadores insesgados de varianza mínima es
determinando una cota para la varianza que un estimador cualquiera puede
tener.
Si alguno de los estimadores que estamos considerando tiene una varianza igual
a la cota, habremos resuelto nuestro problema original.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
17/31
Cotas de Desempeño
Una manera de construir estimadores insesgados de varianza mínima es
determinando una cota para la varianza que un estimador cualquiera puede
tener.
Si alguno de los estimadores que estamos considerando tiene una varianza igual
a la cota, habremos resuelto nuestro problema original.
En el peor de los casos, es un punto de comparación contra el cual podemos
comparar otros estimadores.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
17/31
Cotas de Desempeño
Una manera de construir estimadores insesgados de varianza mínima es
determinando una cota para la varianza que un estimador cualquiera puede
tener.
Si alguno de los estimadores que estamos considerando tiene una varianza igual
a la cota, habremos resuelto nuestro problema original.
En el peor de los casos, es un punto de comparación contra el cual podemos
comparar otros estimadores.
Más aún, podremos utilizarlo para determinar si es físicamente posible construir
un estimador MVU.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
17/31
Cotas de Desempeño
Existe una gran cantidad de cotas para la varianza de un estimador, pero la cota
inferior de Cramer-Rao (CRLB) es una de las más fáciles de calcular.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
18/31
Cotas de Desempeño
Existe una gran cantidad de cotas para la varianza de un estimador, pero la cota
inferior de Cramer-Rao (CRLB) es una de las más fáciles de calcular.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
18/31
Precisión del Estimador (1)
La precisión de un estimador indica cuán cercano se encuentra el estimador de
un parámetro a su valor real.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
19/31
Precisión del Estimador (1)
La precisión de un estimador indica cuán cercano se encuentra el estimador de
un parámetro a su valor real.
Ella depende de dos elementos:
(a) Los datos observados {x[0], x[1], . . . , x[N − 1]}, y
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
19/31
Precisión del Estimador (1)
La precisión de un estimador indica cuán cercano se encuentra el estimador de
un parámetro a su valor real.
Ella depende de dos elementos:
(a) Los datos observados {x[0], x[1], . . . , x[N − 1]}, y
(b) La f.d.p. que representa el comportamiento de las observaciones.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
19/31
Precisión del Estimador (1)
La precisión de un estimador indica cuán cercano se encuentra el estimador de
un parámetro a su valor real.
Ella depende de dos elementos:
(a) Los datos observados {x[0], x[1], . . . , x[N − 1]}, y
(b) La f.d.p. que representa el comportamiento de las observaciones.
Este segundo punto es esencial, pues su el parámetro que queremos determinar
depende en forma débil de la densidad (o no depende), es difícil que podamos
concluir algo relevante respecto del parámetro desconocido.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
19/31
Precisión del Estimador (2)
Ejemplo:
Considere el proceso definido por
x[n] = A + w[n]
con w[n] ∼ N (0, σ 2 ).
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
20/31
Precisión del Estimador (2)
Ejemplo:
Considere el proceso definido por
x[n] = A + w[n]
con w[n] ∼ N (0, σ 2 ).
La calidad del estimador
 = x[n]
(11)
mejorará a medida que σ disminuye.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
20/31
Precisión del Estimador (3)
Otra forma de evaluar esta característica del estimador es estudiando la función
de densidad de probabilidad del estimador.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
21/31
Precisión del Estimador (3)
Otra forma de evaluar esta característica del estimador es estudiando la función
de densidad de probabilidad del estimador.
Si ella se encuentra más concentrada en torno al parámetro A, el estimador Â
será más preciso.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
21/31
Función de Verosimilitud
Cuando una medida de probabilidad es vista como una función de un
parámetros desconocido θ para una observación dada x, recibe el nombre de
función de verosimilitud.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
22/31
Función de Verosimilitud
Cuando una medida de probabilidad es vista como una función de un
parámetros desconocido θ para una observación dada x, recibe el nombre de
función de verosimilitud.
En el caso del ejemplo recién visto, la función de verosimilitud es
+
,
1
1
p(x[0]; A) = √
exp − 2 (x[0] − A)2 , para todo A ∈ R.
2σ
2πσ 2
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(12)
22/31
Función de Verosimilitud
Cuando una medida de probabilidad es vista como una función de un
parámetros desconocido θ para una observación dada x, recibe el nombre de
función de verosimilitud.
En el caso del ejemplo recién visto, la función de verosimilitud es
+
,
1
1
p(x[0]; A) = √
exp − 2 (x[0] − A)2 , para todo A ∈ R.
2σ
2πσ 2
(12)
La precisión de la función de verosimilitud puede ser cuantificada calculando la
curvatura de la función log-verosimilitud.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
22/31
Precisión Función de Verosimilitud (1)
La curvatura de la función log-verosimilitud corresponde al negativo de la
segunda derivada del logaritmo natural de la función de verosimilitud.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
23/31
Precisión Función de Verosimilitud (1)
La curvatura de la función log-verosimilitud corresponde al negativo de la
segunda derivada del logaritmo natural de la función de verosimilitud.
En el ejemplo,
1
1
ln p(x[0]; A) = − ln(2πσ 2 ) − 2 (x[0] − A)2
2
2σ
(13a)
Precisión Función de Verosimilitud (1)
La curvatura de la función log-verosimilitud corresponde al negativo de la
segunda derivada del logaritmo natural de la función de verosimilitud.
En el ejemplo,
1
1
ln p(x[0]; A) = − ln(2πσ 2 ) − 2 (x[0] − A)2
2
2σ
(13a)
Precisión Función de Verosimilitud (1)
La curvatura de la función log-verosimilitud corresponde al negativo de la
segunda derivada del logaritmo natural de la función de verosimilitud.
En el ejemplo,
1
1
ln p(x[0]; A) = − ln(2πσ 2 ) − 2 (x[0] − A)2
2
2σ
(13a)
Precisión Función de Verosimilitud (1)
La curvatura de la función log-verosimilitud corresponde al negativo de la
segunda derivada del logaritmo natural de la función de verosimilitud.
En el ejemplo,
1
1
ln p(x[0]; A) = − ln(2πσ 2 ) − 2 (x[0] − A)2
2
2σ
∂ ln p(x[0]; A)
1
⇒
= 2 (x[0] − A)
∂A
σ
∂ 2 ln p(x[0]; A)
1
⇒−
= 2
∂A2
σ
(13a)
(13b)
(13c)
Luego, la curvatura aumenta a medida que σ disminuye.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
23/31
Precisión Función de Verosimilitud (2)
Dado que la función de verosimilitud depende del valor de la observación, es
una variable aleatoria también.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
24/31
Precisión Función de Verosimilitud (2)
Dado que la función de verosimilitud depende del valor de la observación, es
una variable aleatoria también.
Luego, consideraremos la siguiente medida de precisión del estimador:
.
∂ 2 ln p(x[0], . . . , x[N − 1]; θ)
−E
,
∂θ 2
(14)
que mide la curvatura promedio de la función de log-verosimilitud.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
24/31
Precisión Función de Verosimilitud (2)
Dado que la función de verosimilitud depende del valor de la observación, es
una variable aleatoria también.
Luego, consideraremos la siguiente medida de precisión del estimador:
.
∂ 2 ln p(x[0], . . . , x[N − 1]; θ)
−E
,
∂θ 2
(14)
que mide la curvatura promedio de la función de log-verosimilitud.
NOTA: El valor esperado debe ser calculado con respecto a x.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
24/31
Cota Inferior de Cramer-Rao (1)
Teorema
Consideremos una f.d.p. p(x; θ) que satisface la condición de regularidad:
.
∂ ln p(x; θ)
E
= 0, para todo θ ∈ Θ.
∂θ
(15)
Entonces, la varianza de cualquier estimador insesgado θ̂ satisface
Var(θ̂) ≥
-
E −
1
∂ 2 ln p(x; θ)
∂θ 2
.,
(16)
donde la derivada es evaluada en el parámetro correcto θ.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
25/31
Cota Inferior de Cramer-Rao (2)
Cont’n Teorema
Además, existe un estimador insesgado que alcanza la cota, esto es, para el cual
Var(θ̂) =
-
1
∂ 2 ln p(x; θ)
E −
∂θ 2
.,
(17)
para todo θ, si y sólo si
∂ ln p(x; θ)
= I(θ)(g(x) − θ)
∂θ
(18)
para alguna función real g e I.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
26/31
Cota Inferior de Cramer-Rao (2)
Cont’n Teorema
Además, existe un estimador insesgado que alcanza la cota, esto es, para el cual
Var(θ̂) =
-
1
∂ 2 ln p(x; θ)
E −
∂θ 2
.,
(17)
para todo θ, si y sólo si
∂ ln p(x; θ)
= I(θ)(g(x) − θ)
∂θ
(18)
para alguna función real g e I. En este caso, el estimador insesgado de varianza
mínima es
θ̂ = g(x), y Var(θ̂) =
P. Parada, DIE-UCh
1
.
I(θ)
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(19)
26/31
Ejemplo de Aplicación (1)
Consideremos que tenemos múltiples observaciones de un voltaje A mediante
un sensor cuya medición es ruidosa y puede ser modelada de la siguiente forma:
x[n] = A + w[n], n = 0, 1, . . . , N − 1,
donde w[n] ∼ N (0, σ 2 ).
Problema: Calcular la CICR para A:
Paso 1: Determinar la función de verosimilitud del parámetro que queremos
estimar:
p(x; A) =
N−1
/
n=0
=
P. Parada, DIE-UCh
√
"
#
1
exp − 2 (x[n] − A)2
2σ
2πσ 2
1
N−1
"
#
1
1 !
2
exp
−
(x[n]
−
A)
.
2σ 2
(2πσ 2 )N/2
n=0
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
27/31
Ejemplo de Aplicación (2)
Paso 2: Calcular la curvatura de ln p(x; A):
∂ ln p(x; A)
1
= 2
∂A
σ
+ N−1
!
n=0
x[n] − N × A
,
∂ 2 ln p(x; A)
N
= 2.
2
∂A
σ
Paso 3: Verificamos condiciones de regularidad.
-
.
+ N−1
,
∂ ln p(x; A)
1 !
E
= 2
E[x[n]] − N × A = 0.
∂A
σ
P. Parada, DIE-UCh
n=0
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
28/31
Ejemplo de Aplicación (3)
Por el Teorema de la CICR podemos concluir entonces que cualquier estimador
insesgado de A debe satisfacer que:
Var(Â) ≥
P. Parada, DIE-UCh
σ2
.
N
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
29/31
Ejemplo de Aplicación (3)
Por el Teorema de la CICR podemos concluir entonces que cualquier estimador
insesgado de A debe satisfacer que:
Var(Â) ≥
σ2
.
N
(20)
Resulta fácil verificar que
 =
N−1
1 !
x[n]
N
(21)
n=0
es un estimador de mínima varianza y, por lo tanto, satisface
Var =
P. Parada, DIE-UCh
σ2
.
N
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
(22)
29/31
Ideas para madurar
!
En esta clase hemos visto la importancia de utilizar estimadores insesgados.
!
Hemos presentado un resultado (Cota Inferior de Cramer Rao) que puede
ayudarnos a determinar “buenos” estimadores.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
30/31
Lecturas
!
Steven M. Kay. Fundamentals of Statistical Signal Processing: Volume 1 Estimation Theory, Capítulos 2 y 3.1-3.5.
P. Parada, DIE-UCh
EL7002, Clase No.2: Estimación Insesgada de Varianza Mínima
31/31