DESICIÓN CONTRA LA NATURALEZA TEORÍA DE DECISIONES En terminos generales, la teoría de decisiones trata de las decisiones contra la naturaleza. Esta frase se refiere a una situación en la que el resultado (rendimiento) de una decisión, depende de la acción del otro jugador (naturaleza). 1 MODELO GENERAL (tabla de retribuciones) CLASES DE PROBLEMAS DE DECISIONES Se manejan tres clases de problemas de decisión contra la naturaleza. Cada clase se define mediante una conjetura sobre el comportamiento de la naturaleza. ESTADO DE LA NATUTALEZA DECISIÓ N 1 2 …….. m d1 r11 r21 …….. r1m d2 r12 r22 …….. r2m d3 r13 r23 …….. r3m . . . . . . . . . . . dn rn1 rn2 2 Decisiones bajo certeza Decisiones bajo riesgo Decisiones bajo incertidumbre . …….. rnm 3 4 1 DESICIONES BAJO CERTEZA DESICIONES BAJO RIESGO El que toma las decisiones sabe con precisión cuál estado de la naturaleza ocurrirá. Su “único” problema consiste en elegir la mejor decisión. En esta categoría están los problemas deterministicos, tales como la programación lineal y de enteros. Se especifica una distribución de probabilidad para los estados. El que toma la decisiones puede usar los siguientes criterios para elegir la mejor opción 5 6 EJEMPLO DE DECISIÓN BAJO RIESGO EJEMPLO DE DECISIÓN BAJO RIESGO Fórmula Un vendedor de periódicos puede obtener la siguiente tabla de retribución, donde costo x periódico =10 y Precio de venta =25 m UEi = ∑ rij . pj = ri1 pi + ri 2 p 2 + .... + rimpm DECISIÓN 0 1 2 3 j =1 Max UEi Po= Probabilidad P1= Probabilidad P2= Probabilidad P3= Probabilidad 7 0 0 -10 -20 -30 ESTADO DE LA NATUTALEZA 1 2 0 0 15 15 5 30 -5 20 { demanda { demanda { demanda { demanda = 0} = 1} = 2} = 3} 3 0 15 30 45 = 1/10 = 3/10 = 4/10 = 2/10 8 2 CALCULO DE RENDIMIENTO ESPERADO DECISIONES BAJO INSERTIDUMBRE Reo=0(1/10)+0(3/10)+0(4/10)+0(2/10) =0 Re1=-10(1/10)+15(3/10)+15(4/10)+15(2/10) =12.5 Re2=-20(1/10)+5(3/10)+30(4/10)+30(2/10) =17.5 Re3=-30(1/10)-5(3/10)+20(4/10)+45(2/10) =12.5 El que toma la decisión no tiene conocimiento de la probabilidad de ocurrencia de los estados de la naturaleza. Existen tres criterios que van a permitir tomar una decisión: Rendimiento máximo = decisión 2 => 17.5 9 10 EL MISMO EJEMPLO DEL PERIODICO CRITERIO DE LAPLACE Este enfoque se basa en el supuesto de que todos los estados de la naturaleza tienen la misma probabilidad de ocurrencia. Un vendedor de periódicos puede obtener la siguiente tabla de retribución, donde costo x periódico =10 y Precio de venta =25 DECISIÓN 0 1 2 3 Po= P1= P2= P3= 11 0 0 -10 -20 -30 ESTADO DE LA NATUTALEZA 1 2 0 0 15 15 5 30 -5 20 Probabilidad { demanda = Probabilidad { demanda = Probabilidad { demanda = Probabilidad { demanda = 0} = 1} = 2} = 3} = 3 0 15 30 45 0.25 0.25 0.25 0.25 12 3 CALCULO DEL RENDIMIENTO DEFICIENCIA Igual que el caso bajo riesgo: En algunos casos este enfoque de “igual probabilidad” puede producir resultados aceptables, en otras podría ser inadecuado. Ejemplo: Partido de Futbol entre el primero y el colero de la tabla de un campeonato y existe las apuestas. Reo=0(1/4)+0(1/4)+0(1/4)+0(1/4) =0 Re1=-10(1/4)+15(1/4)+15(1/4)+15(1/4) =8.75 Re2=-20(1/4)+5(1/4)+30(1/4)+30(1/4) =11.25 Re3=-30(1/4)-5(1/4)+20(1/4)+45(1/4) =7.5 Rendimiento máximo = decisión 2 => 11.25 13 14 CRITERIO MAXIMIN EJEMPLO DE CRITERIO MAXIMIN Este es un tratamiento conservador en extremo, o quizá pesimista, para la toma de decisiones. En él cada decisión se evalúa según lo peor que puede suceder al tomarla, el mínimo de los rendimientos, y se selecciona el máximo de ellos. Usamos el caso del vendedor de periódicos: DECISIÓN 0 1 2 3 15 DECISIÓN 0 1 2 3 0 0 -10 -20 -30 ESTADO DE LA NATUTALEZA 1 2 0 0 15 15 5 30 -5 20 RENDIMIENTO MINIMO 0 -10 -20 -30 3 0 15 30 45 16 4 COMENTARIOS DEFICIENCIAS El criterio maximin se usa a menudo en situaciones en las que quien planea siente que no puede arriesgarse a fallar. Como ejemplo la planeación en cuestiones de Defensa. Qué sucede si tenemos el siguiente caso: DECISIÓN 1 2 ESTADO DE LA NATUTALEZA 1 2 4 5 6 7 8 9 3 100 100 2.9 100 100 100 100 100 100 3 3 3 3 3 3 3 3 3 17 18 CRITERIO MAXIMAX EJEMPLO CRITERIO MAXIMAX Este criterio es tan optimista como el maximin es pesimista. Evalúa cada decisión conforme a lo mejor que puede suceder si se le toma. Usamos el caso del vendedor de periódicos: 19 DECISIÓN 0 1 2 3 DECISIÓN 0 1 2 3 0 0 -10 -20 -30 ESTADO DE LA NATUTALEZA 1 2 0 0 15 15 5 30 -5 20 RENDIMIENTO MAXIMO 0 15 30 45 3 0 15 30 45 20 5 DEFICIENCIA CRITERIO DEL PERJUICIO MINIMAX Qué sucede si tenemos el siguiente caso: DECISIÓN 1 2 ESTADO DE LA NATUTALEZA 1 2 4 5 6 7 8 9 3 100 100 100 100 100 100 100 100 100 3 3 101 3 3 3 3 3 3 Se introduce un nuevo concepto para medir lo deseable de un resultado, es decir, un nuevo modo de construir la tabla de rendimientos. Ahora vamos a agregar el concepto de costo de oportunidad. Los pasos son los siguientes: 1. Encontrando el máximo elemento de cada columna o estado. 2. Calculamos el nuevo elemento restando el dato actual al máximo de la columna. 21 EL VALOR ESPERADO DE LA INFORMACIÓN PERFECTA EJEMPLO DEL PERIODICO DECISIÓN 0 1 2 3 0 0 10 20 30 DECISIÓN 0 1 2 3 ESTADO DE LA NATUTALEZA 1 2 15 30 0 15 10 0 20 10 PERJUICIO MAXIMO 45 30 20 30 22 Los gerentes no son capaces de alterar las probabilidades de los eventos futuros, pero sí pueden efectuar mejores predicciones. El valor de la información perfecta es la cantidad en la que podría mejorar el resultado esperado si se conociera de antemano cuál es el evento que va a ocurrir. 3 45 30 15 0 23 24 6 EL VALOR ESPERADO DE LA INFORMACIÓN PERFECTA EL VALOR ESPERADO DE LA INFORMACIÓN PERFECTA Desgraciadamente uno no puede manipular las proba ¿Cuánto ESTARÍAMOS DISPUESTOS A PAGAR POR ESA INFORMACIÓN Antes de que se las proporcione? Veamos el ejemplo del vendedor de periódicos, hasta ahora: El vendedor solo conocía la de probabilidad de la demanda y lo que le generaba de rendimiento la ocurrencia de cada una de ellas, para la elección de la mejor decisión: Multiplicaba cada rendimiento x la probabilidad de ocurrencia y tomaba el mayor. 25 26 EL VALOR ESPERADO DE LA INFORMACIÓN PERFECTA EL VALOR ESPERADO DE LA INFORMACIÓN PERFECTA Reo=0(1/10)+0(3/10)+0(4/10)+0(2/10) =0 Si ahora tiene la facilidad de conocer cual evento va a suceder pero manteniendo la probabilidad de ocurrencia. Acaso,¿no escogería aquellos eventos que le generen mayor rendimiento? Re1=-10(1/10)+15(3/10)+15(4/10)+15(2/10) =12.5 Re2=-20(1/10)+5(3/10)+30(4/10)+30(2/10) =17.5 Re3=-30(1/10)-5(3/10)+20(4/10)+45(2/10) =12.5 Rendimiento máximo = decisión 2 => 17.5 27 28 7 CALCULO DEL VEIP CALCULO DEL VEIP Entonces escogería, para el cálculo del Rendimiento esperado con Información perfecta: Si el vendedor pudiera escoger cual evento va a suceder DECISIÓN 0 1 2 3 Po= P1= P2= P3= 0 0 -10 -20 -30 ESTADO DE LA NATUTALEZA 1 2 0 0 15 15 5 30 -5 20 Probabilidad { demanda = Probabilidad { demanda = Probabilidad { demanda = Probabilidad { demanda = 0} = 1} = 2} = 3} = 3 0 15 30 45 RE(IP)=0(1/10)+15(3/10)+30(4/10 )+45(2/10) =25.5 1/10 3/10 4/10 2/10 VEIP= 25.5 – 17.5 =8 29 30 ELEMENTOS DE UN ARBOL DE DECISIÓN ARBOL DE DECISIÓN Un árbol de decisión es un recurso gráfico para analizar decisiones bajo riesgo. Los árboles de decisión fuero creados para usarse en problemas en los que hay una secuencia de decisiones, cada una de las cuales conduce a uno de entre varios resultados inciertos. 31 Rama Cada línea que emanan de los nodos. Nodo Cuadrado Punto donde debe tomarse una decisión. Cada línea que parte de él representa una decisió decisión. Nodo Circular Punto de incertidumbre. Cada línea que parte de él representa un resultado. resultado 32 8 GRÁFICA DE UN ARBOL DE DECISIÓN EJEMPLO Una empresa acaba de completar la fase de diseño y prueba de un nuevo producto para lanzarlo al mercado y su departamento de mercadotecnia tiene que tomar la decisión de hacer una campaña publicitaria, la cual puede ser Agresiva, Básica o Cautelosa. El mercado puede reaccionar en dos formas, Fuerte o Débil, en la siguiente tabla se muestra los beneficios y las probabilidades de ocurrencia: decisiones Eventos inciertos 33 EJEMPLO 34 EJEMPLO Según lo estudiado hasta ahora, podríamos hallar las rentabilidades esperadas de la siguiente manera: Retribuciones (en millones de dólares) y probabilidades Estado de la Naturaleza Fuerte, F Débil, D Probabilidad DESICIÓN 0.45 0.55 Agresivo (A) 30 -8 Básico (B) 20 7 Cauteloso ( C) 5 15 RE (A) = 30(0.45) - 8(0.55) = 9.10 RE (B) = 20(0.45) + 7(0.55) = 12.85 RE (C) = 5(0.45) + 15(0.55) = 10.5 35 36 9 USANDO ARBOL DE DESICIÓN USANDO ARBOL DE DESICIÓN 30 F II D A B I F III D C F IV D 5 0.4 F)= P(P (D)= 0. 55 . 45 )=0 P(F P(D )= II 9.10 III 12.85 -8 A 20 B I 0.55 . 45 )=0 P(F P(D )=0 . 55 7 C 5 IV 15 10.5 37 ANALISIS DE SENSIBILIDAD 38 ANALISIS DE SENSIBILIDAD Del ejemplo anterior tenemos: RE(A)=(30)P(F)+(-8)P(D) sabemos : P(F)+P(D)=1 o P(D)=1-P(F) Entonces : RE(A)=30P(F)-8[1-P(F)] RE(A)=-8 + 38P(F) De la misma forma: RE(B)=7 + 13P(F) RE(A)=15 - 10P(F) Entonces haciendo una gráfica de RE vs. P(F) 39 40 10 PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES ANALISIS DE SENSIBILIDAD 35 30 RE 25 20 15 10 PROCESO DE 2 ETAPAS RE(A) RE(B) ETAPA 1 5 0 -5 0 -10 0.2 (1) P(1) = 1/6 RE(C) 0.4 0.348 0.6 P(F) 0.8 1 ETAPA 2 ( 2 ,3 ) P(2) = 2/6 ( 4 ,5, 6 ) P(3) = 3/6 28 B 72 N 40 B 60 N 92 B 8N Urna 1 Urna 2 Urna 3 0.6 41 42 PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES P(B|1), significa una probabilidad condicional, esto es la probabilidad de B dado 1. Significa sacar una bola Blanca (B) suponiendo que se saca de la urna 1. Una vez que es elegida la urna, la bola se elige al azar, entonces todas las bolas tienen la misma probabilidad de salir. Para el ejemplo las probabilidades condicionales son: P(B|1)= 0.28 Y P(N|1)= 0.72 P(B|2)= 0.40 Y P(N|2)= 0.60 P(B|3)= 0.92 Y P(N|3)= 0.08 43 44 11 PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES Si en nuestro ejemplo queremos calcular la probabilidad de sacar de una urna una dado que el color de la bola ya esta determinada, por ejemplo: Color Negro de la urna1. Entonces lo que se nos pide es: P(1|N) = ? Para el cálculo de P(1|N) usaremos lo siguiente: P(IyN)= P(NeI)=P(N|I)P(I)=P(I|N)P(N) P(I|N) = P(N|I)P(I) ……. (a) P(N) donde P(NeI) es la probabilidad conjunta de que ocurra tanto N como I. 45 46 PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES Usaremos el hecho de que: Como vemos con el Teorema de Bayes o regla de Bayes podemos calcular el valor inicial que nos habíamos propuesto: P(N)=P(N|1)P(1)+P(N|2)P(2)+P(N|3)P(3) Ahora reemplazando esta expresión en (a) obtenemos el TEROREMA DE BAYES: P(1|N)= P(N|1)P(1) P(N|1)P(1)+P(N|2)P(2)+P(N|3)P(3) P(I|N)= P(N|I)P(I) P(N|1)P(1)+P(N|2)P(2)+P(N|3)P(3) 47 48 12 PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES Calculando y reemplazando los datos en fórmula: P(N|1)P(1) = (72/100)(1/6) = 0.12 P(N)=(72/100)(1/6)+(60/100)(2/6) + (8/100)(3/6) P(N) = 0.36 Un enfoque tabular: LANZAMIENTO DEL DADO Sacar una bola N B Probabilidad marginal Urna 1 Urna 2 Urna 3 P(N&1) =72/600 P(N&2) =120/600 P(N&3) =24/600 P(B&1) =28/600 P(B&2) =80/600 P(B&3) =276/600 P(1) = 1/6 P(2) = 2/6 Probabilidad marginal P(N) = 36/100 P(B) = 64/100 P(3) = 3/6 P(1|N)= 0.12/0.36 = 1/3 49 50 APLICACIÓN DE ÁRBOLES DE DECISIÓN CON INCLUSION DE NUEVA INFORMACIÓN PROBABILIDADES A PRIORI Y A POSTERIORI Las probabilidades originales: P(1)=1/6, etc., se refieren a probabilidades a priori (es decir, antes de la nueva información del resultado del color de la bola que se extraiga). Las probabilidades condicionales [por ejemplo, P(1|N)] se llaman probabilidades a posteriori (después que se conoce el color de la bola que se ha extraído) 51 APLICACIÓN DE ÁRBOLES DE DECISIÓN CON INCLUSION DE NUEVA INFORMACIÓN EJEMPLO ANTERIOR (HOJA) 52 13
© Copyright 2024