proyectos - Cidesi

UN NUEVO ENFOQUE DE LA CONFIABILIDAD, USANDO EL SEIS SIGMA EN LA MATRIZ DE RIESGO
Gabriel Ventura
CIDESI, Gerencia de Procesos, Profesor investigador
Santiago de Querétaro, Qro., [email protected]
RESUMEN
CIDESI (Centro de Ingeniería y Desarrollo Industrial), dentro
de su área de desarrollo de procesos para la industria del
petróleo, está proponiendo para estudiar la confiabilidad de
plantas de procesos, unir la metodología seis sigma con la de
MBS –mantenimiento basado en el riesgo-.
Si a la confiabilidad en la matriz de confiabilidad-consecuencia
(Matriz de Riesgo), la modificamos por los defectos por millón
de oportunidades-consecuencias, podríamos usar métricas
diferentes al tiempo medio entre fallas (una planta de procesos
tiene interrelaciones entre medio ambiente, métodos, máquinas,
mediciones, materiales y gente).
En las consecuencias se optó por una formulación de funciones
de pérdida tipo Taguchi [4]: nominal es indeseable, menor es
indeseable o mayor es indeseable, junto con un espacio que
llaman en matemáticas: normado, para poder unir diferentes
escenarios de consecuencias, que implican unidades propias:
vidas, costos, desplazamientos, etc.
Tabla 1: Diferente forma de abordar un problema
Los defectos los posicionamos en la zona de probabilidad
extrema, la zona de desempeño adecuado al centro de la
distribución de probabilidades, dentro del intervalo de sigmas
que consideramos. Una forma sencilla es asociando los sigmas
en multiplicidad de desviaciones estándares, y los defectos por
millón de oportunidades (DPMO), como vemos en la siguiente
tabla:
INTRODUCCIÓN
Mediante el uso de métodos estadísticos, los ingenieros
norteamericanos en la década de los mil novecientos setentas,
diseñaron una iniciativa a la mejora basada en la eliminación de
las causas de los problemas, antes de que fuese necesario el
identificar y reparar los defectos. La base de lo que
denominaron Six-sigma (seis sigma) como herramienta de
mejora continua fue la medición de la capacidad del proceso y
el seguimiento, teniendo como propósito conocer de manera
objetiva la evolución de la calidad del proceso sobre el que se
aplica. Usaremos esta técnica para definir la confiabilidad.
DESARROLLO
Fundamental fue encontrar los defectos por millón de
oportunidades que asociaron con las desviaciones estándares –
sigmas-. Sin embargo el defecto lo midieron con base a una
métrica y no como algo abstracto: mejorar, optimizar.
Se parte de entender que todo proceso tiene defectos, por ende,
bajar la tasa de éstos, es lo preferible. Para darse cuenta de la
fortaleza del seis sigma, la tabla 1 nos muestra la forma de
encarar un problema cuando lo tratamos de definir, en la
columna –no- la forma en la que no encontraremos una métrica,
última columna con la obtención de la métrica, que al remitirse
a la primera columna (evite) nos clarificará este objetivo:
Tabla 2: Niveles de sigmas y defectos/millón de oportunidades
Lo ideal es llegar a tener 3.4 defectos por millón de
oportunidades, pero de no llegar, podremos saber en qué orden
de DPMO nos encontramos, teniendo como objetivos ir
subiendo el nivel de sigmas (la capacidad del proceso).
Por ejemplo, de una planta de procesos, analizando los marcos
de los –racks- y tuberías, las variables de medición son (figura
1): vibración, deflexión, desnivel, con valores de funciones
Taguchi: más de 8 hertz no es deseable, más de dos milímetros
es defecto para los dos últimos desplazamientos. Y su gráfica
de capacidad identificamos que quién descentra, es el mal
desempeño en vibraciones, a su vez los valores indeseables de
desplome y desnivel, provocan dispersión; podríamos así
identificar el grado de defectos para corregirlos, además de su
ponderación y consecuencia (figura 2):
1
Fig. 3: Matriz de la metodología: mantenimiento basado en el
riesgo –MBR-, conocida como -de RiesgoEsta gráfica matricial la podemos ahora asociar a muchas
fenomenologías, que no necesariamente están vinculadas con
tiempos de reparaciones de equipo, v. g. cambiando las
métricas a desempeños de equipos, obsolescencias, forma de
operarlos, etc. (figura 4).
Fig. 1: Marcos que soportan ductos (detalle del medidor
conocido como acelerómetro, para vibraciones)
Fig. 2: Capacidad del proceso
Como observamos hemos reunido diferentes fenomenologías
que al trabajarlo en un espacio llamado normado (ver
apéndice), hacen posible analizarlas juntas.
Ya identificadas las variables medibles que causan problemas
es posible definir sus consecuencias, por ejemplo con criterios
que involucren al decisor (en términos de la Teoría de
Decisiones): decisor adverso al riesgo, propenso al riesgo y que
están muy bien establecido con las reglas del valor
probabilístico, llamado, esperado.
Recordemos la Matriz de Riesgo: en el eje de las abscisas las
consecuencias, en el de las ordenadas las confiabilidades.
Fijémonos en la figura 3: si cambiamos estas confiabilidades
(índice de evaluación de Confiabilidad) por los defectos/millón
de oportunidades, la trazabilidad es inmediata y la clasificación
del mantenimiento basado en el riesgo, es idéntica:
Fig. 4: Trazabilidad de la Matriz de Riesgo, usada en el MBR
(mantenimiento basado en riesgo)
CONCLUSIONES
Cambiando en la Matriz de Riesgo las ordenadas (actualmente
se usa la confiabilidad probabilística), por la métrica defectos
por millón de oportunidades, podríamos incluir los rubros de
medio ambiente, métodos, máquinas, mediciones, materiales y
gente al mismo tiempo. Contrastando con lo que normalmente
se hace de solo involucrar el tiempo en reparación para asignar
la confiabilidad [1], [2] y [4].
Las variables que producen descentrado y variación se pueden
incluir en las consecuencias vía funciones de Taguchi, incluso
se puede ampliar con ponderaciones que tomen en cuenta la
forma de encarar riesgos de un decisor (propenso o adverso al
mismo).
Con esto la aproximación del análisis de confiabilidad será
eliminando los defectos (riesgos), los enfoques serán de
proyecto, información será variada, la aplicación es fuera de
línea (entendiendo el antes y después del proceso), se tiene
criterios de optimización claros (métricas como fallos de álabes
por desplazamientos mayores de 2 mils, en lugar de “un álabe
hay que optimizar”, pero -¿qué debemos optimizar?-), los
problemas son comprendidos y la solución es escalando a mas
sigmas (lo ideal es el seis sigma, equivale a las posiciones
cercanas al origen de la escala en la Matriz de Riesgo).
2
supercomputadora”; ISUM2010, Congreso internacional
de supercómputo, México, pp. 124-138.
APÉNDICE
Con:
u, v
uh, vh
є
L

V
<u,v>
c
Sigma
MBR
[2] Brun K., Smalley A., 2003, “10071.01.203 PEMEX
Final Report” South West Research Institute project, TX,
EEUU, pp. 6-22.
Vectores
Aproximación
Elemento
Funcional
Real
Espacio Vectorial
Producto escalar
Escalar
Desviación Estándar
Mantenimiento basado en el riesgo
[3] Ventura G., 2001, “Six sigma project: A 10 33.5
piping GEK loads analysis”; e-Design Record Book,
General Electric; HP-IP volume, NY, EEUU, pp. 4-22.
[4] Taguchi G., 1986, “Introduction to Quality
Engineering”; Asian Productivity Organization; EEUU.
Definimos las siguientes funciones (de Taguchi):
Nominal
es mejor
Menor
es mejor
L( y )
L( y )
CURRICULUM VITAE
Mayor
es mejor
L( y )
Función
Es ponente frecuente de congresos de ASME.
X
1
Resultado
n
Resultados
L( y)  k ( X  y)
L( y)  ky
2


2
L( y)  k  2  yn  X 


L( y ) 
2

L( y)  k yn2   2

k
y2
k  3 2 
L( y )  2 1  2 
y n
yn 
Usamos las siguientes formulaciones de espacio normado (es el
equivalente a que cuando damos calificación en las universides,
definimos una escala, v. g. del 1 al 10, con 6 es aprobatorio,
etc.).
Dado un espacio L : Vh x V =>  [3],
(1)
Con una aproximación,
Vh tal que es un subconjunto de V,
Existe un vector v є V ,
(2)
0<u<1
Una de sus investigaciones es norma de “piping loads” en
EEUU, para General Electric, división de Steam Turbines. Fue
el primer mexicano en publicar para GE international en
eDesign Record Book. Certificado en Seis Sigma por GE con
proyectos de turbinas.
En México ha participado en varios proyectos: como líder de
proyecto en confiabilidad para PGPB: plantas de bombeo y
compresión. En el Gran telescopio milimétrico como líder de
análisis. Telescopio de las Canarias (Frida) como revisor de
tesis de doctorado.
Ha sido coordinador de máquinas especiales en CIATEQ,
actualmente profesor investigador del CIDESI. Es asesor
estructural de varias entidades de la industria de la
comunicación (medios impresos), Director Responsable de
Obras del Distrito Federal.
Profesor definitivo de la UNAM y profesor de asignatura del
posgrado del CONACYT (Picyt).
Tal que L(u)=k(un + c) = <u,v>
Con
Gabriel Ventura es ingeniero civil, realizó su posgrado en la
UNAM, con estancias posdoctorales en el Centro Europeo de
Paralelismo y la Universidad de Albany, planta de
Schenectady, N. Y., EEUU.
(3)
u є Vh es la media de la desviación estándar
Premio Nacional de ingeniería de 1998, Premio Internacional
de IT (2002), General Electric, ha sido varias veces postulado
por diferentes colegios de ingenieros para el Premio Nacional
de Ciencias y Artes.
k es 1,2 o 3 (grado del defecto)
n número de variables
c es una constante real
REFERENCIAS
[1] Ventura G., y otro, 2010, “Aplicación del
pseudosupercómputo en instituciones que no cuentan con
3