UN NUEVO ENFOQUE DE LA CONFIABILIDAD, USANDO EL SEIS SIGMA EN LA MATRIZ DE RIESGO Gabriel Ventura CIDESI, Gerencia de Procesos, Profesor investigador Santiago de Querétaro, Qro., [email protected] RESUMEN CIDESI (Centro de Ingeniería y Desarrollo Industrial), dentro de su área de desarrollo de procesos para la industria del petróleo, está proponiendo para estudiar la confiabilidad de plantas de procesos, unir la metodología seis sigma con la de MBS –mantenimiento basado en el riesgo-. Si a la confiabilidad en la matriz de confiabilidad-consecuencia (Matriz de Riesgo), la modificamos por los defectos por millón de oportunidades-consecuencias, podríamos usar métricas diferentes al tiempo medio entre fallas (una planta de procesos tiene interrelaciones entre medio ambiente, métodos, máquinas, mediciones, materiales y gente). En las consecuencias se optó por una formulación de funciones de pérdida tipo Taguchi [4]: nominal es indeseable, menor es indeseable o mayor es indeseable, junto con un espacio que llaman en matemáticas: normado, para poder unir diferentes escenarios de consecuencias, que implican unidades propias: vidas, costos, desplazamientos, etc. Tabla 1: Diferente forma de abordar un problema Los defectos los posicionamos en la zona de probabilidad extrema, la zona de desempeño adecuado al centro de la distribución de probabilidades, dentro del intervalo de sigmas que consideramos. Una forma sencilla es asociando los sigmas en multiplicidad de desviaciones estándares, y los defectos por millón de oportunidades (DPMO), como vemos en la siguiente tabla: INTRODUCCIÓN Mediante el uso de métodos estadísticos, los ingenieros norteamericanos en la década de los mil novecientos setentas, diseñaron una iniciativa a la mejora basada en la eliminación de las causas de los problemas, antes de que fuese necesario el identificar y reparar los defectos. La base de lo que denominaron Six-sigma (seis sigma) como herramienta de mejora continua fue la medición de la capacidad del proceso y el seguimiento, teniendo como propósito conocer de manera objetiva la evolución de la calidad del proceso sobre el que se aplica. Usaremos esta técnica para definir la confiabilidad. DESARROLLO Fundamental fue encontrar los defectos por millón de oportunidades que asociaron con las desviaciones estándares – sigmas-. Sin embargo el defecto lo midieron con base a una métrica y no como algo abstracto: mejorar, optimizar. Se parte de entender que todo proceso tiene defectos, por ende, bajar la tasa de éstos, es lo preferible. Para darse cuenta de la fortaleza del seis sigma, la tabla 1 nos muestra la forma de encarar un problema cuando lo tratamos de definir, en la columna –no- la forma en la que no encontraremos una métrica, última columna con la obtención de la métrica, que al remitirse a la primera columna (evite) nos clarificará este objetivo: Tabla 2: Niveles de sigmas y defectos/millón de oportunidades Lo ideal es llegar a tener 3.4 defectos por millón de oportunidades, pero de no llegar, podremos saber en qué orden de DPMO nos encontramos, teniendo como objetivos ir subiendo el nivel de sigmas (la capacidad del proceso). Por ejemplo, de una planta de procesos, analizando los marcos de los –racks- y tuberías, las variables de medición son (figura 1): vibración, deflexión, desnivel, con valores de funciones Taguchi: más de 8 hertz no es deseable, más de dos milímetros es defecto para los dos últimos desplazamientos. Y su gráfica de capacidad identificamos que quién descentra, es el mal desempeño en vibraciones, a su vez los valores indeseables de desplome y desnivel, provocan dispersión; podríamos así identificar el grado de defectos para corregirlos, además de su ponderación y consecuencia (figura 2): 1 Fig. 3: Matriz de la metodología: mantenimiento basado en el riesgo –MBR-, conocida como -de RiesgoEsta gráfica matricial la podemos ahora asociar a muchas fenomenologías, que no necesariamente están vinculadas con tiempos de reparaciones de equipo, v. g. cambiando las métricas a desempeños de equipos, obsolescencias, forma de operarlos, etc. (figura 4). Fig. 1: Marcos que soportan ductos (detalle del medidor conocido como acelerómetro, para vibraciones) Fig. 2: Capacidad del proceso Como observamos hemos reunido diferentes fenomenologías que al trabajarlo en un espacio llamado normado (ver apéndice), hacen posible analizarlas juntas. Ya identificadas las variables medibles que causan problemas es posible definir sus consecuencias, por ejemplo con criterios que involucren al decisor (en términos de la Teoría de Decisiones): decisor adverso al riesgo, propenso al riesgo y que están muy bien establecido con las reglas del valor probabilístico, llamado, esperado. Recordemos la Matriz de Riesgo: en el eje de las abscisas las consecuencias, en el de las ordenadas las confiabilidades. Fijémonos en la figura 3: si cambiamos estas confiabilidades (índice de evaluación de Confiabilidad) por los defectos/millón de oportunidades, la trazabilidad es inmediata y la clasificación del mantenimiento basado en el riesgo, es idéntica: Fig. 4: Trazabilidad de la Matriz de Riesgo, usada en el MBR (mantenimiento basado en riesgo) CONCLUSIONES Cambiando en la Matriz de Riesgo las ordenadas (actualmente se usa la confiabilidad probabilística), por la métrica defectos por millón de oportunidades, podríamos incluir los rubros de medio ambiente, métodos, máquinas, mediciones, materiales y gente al mismo tiempo. Contrastando con lo que normalmente se hace de solo involucrar el tiempo en reparación para asignar la confiabilidad [1], [2] y [4]. Las variables que producen descentrado y variación se pueden incluir en las consecuencias vía funciones de Taguchi, incluso se puede ampliar con ponderaciones que tomen en cuenta la forma de encarar riesgos de un decisor (propenso o adverso al mismo). Con esto la aproximación del análisis de confiabilidad será eliminando los defectos (riesgos), los enfoques serán de proyecto, información será variada, la aplicación es fuera de línea (entendiendo el antes y después del proceso), se tiene criterios de optimización claros (métricas como fallos de álabes por desplazamientos mayores de 2 mils, en lugar de “un álabe hay que optimizar”, pero -¿qué debemos optimizar?-), los problemas son comprendidos y la solución es escalando a mas sigmas (lo ideal es el seis sigma, equivale a las posiciones cercanas al origen de la escala en la Matriz de Riesgo). 2 supercomputadora”; ISUM2010, Congreso internacional de supercómputo, México, pp. 124-138. APÉNDICE Con: u, v uh, vh є L V <u,v> c Sigma MBR [2] Brun K., Smalley A., 2003, “10071.01.203 PEMEX Final Report” South West Research Institute project, TX, EEUU, pp. 6-22. Vectores Aproximación Elemento Funcional Real Espacio Vectorial Producto escalar Escalar Desviación Estándar Mantenimiento basado en el riesgo [3] Ventura G., 2001, “Six sigma project: A 10 33.5 piping GEK loads analysis”; e-Design Record Book, General Electric; HP-IP volume, NY, EEUU, pp. 4-22. [4] Taguchi G., 1986, “Introduction to Quality Engineering”; Asian Productivity Organization; EEUU. Definimos las siguientes funciones (de Taguchi): Nominal es mejor Menor es mejor L( y ) L( y ) CURRICULUM VITAE Mayor es mejor L( y ) Función Es ponente frecuente de congresos de ASME. X 1 Resultado n Resultados L( y) k ( X y) L( y) ky 2 2 L( y) k 2 yn X L( y ) 2 L( y) k yn2 2 k y2 k 3 2 L( y ) 2 1 2 y n yn Usamos las siguientes formulaciones de espacio normado (es el equivalente a que cuando damos calificación en las universides, definimos una escala, v. g. del 1 al 10, con 6 es aprobatorio, etc.). Dado un espacio L : Vh x V => [3], (1) Con una aproximación, Vh tal que es un subconjunto de V, Existe un vector v є V , (2) 0<u<1 Una de sus investigaciones es norma de “piping loads” en EEUU, para General Electric, división de Steam Turbines. Fue el primer mexicano en publicar para GE international en eDesign Record Book. Certificado en Seis Sigma por GE con proyectos de turbinas. En México ha participado en varios proyectos: como líder de proyecto en confiabilidad para PGPB: plantas de bombeo y compresión. En el Gran telescopio milimétrico como líder de análisis. Telescopio de las Canarias (Frida) como revisor de tesis de doctorado. Ha sido coordinador de máquinas especiales en CIATEQ, actualmente profesor investigador del CIDESI. Es asesor estructural de varias entidades de la industria de la comunicación (medios impresos), Director Responsable de Obras del Distrito Federal. Profesor definitivo de la UNAM y profesor de asignatura del posgrado del CONACYT (Picyt). Tal que L(u)=k(un + c) = <u,v> Con Gabriel Ventura es ingeniero civil, realizó su posgrado en la UNAM, con estancias posdoctorales en el Centro Europeo de Paralelismo y la Universidad de Albany, planta de Schenectady, N. Y., EEUU. (3) u є Vh es la media de la desviación estándar Premio Nacional de ingeniería de 1998, Premio Internacional de IT (2002), General Electric, ha sido varias veces postulado por diferentes colegios de ingenieros para el Premio Nacional de Ciencias y Artes. k es 1,2 o 3 (grado del defecto) n número de variables c es una constante real REFERENCIAS [1] Ventura G., y otro, 2010, “Aplicación del pseudosupercómputo en instituciones que no cuentan con 3
© Copyright 2024