Descargar - conaiisi 2015

Evaluación de Productos de Software
Paula Angeleri, Martín Santi, Rolando Titiosky
Facultad de Ingeniería y Tecnología
Informática
Universidad de Belgrano,
Buenos Aires, Argentina
{ paula.angeleri, martin.santi,
rolando.titiosky }@comunidad.ub.edu.ar
Abstract
La evaluación de la calidad de producto software es
un tema poco tratado en la región y la nueva serie de
normas ISO/IEC 25000 representa un avance
importante. Sin embargo aún no se han publicado todas
las partes de esta serie de normas que se necesitan
para llevar a cabo una evaluación. En este artículo se
presenta el proceso de evaluación de software MyFEPS
que está basado en normas internacionales ISO/IEC, y
que introduce mejoras para cubrir algunos aspectos no
considerados en las normas ISO/IEC. MyFEPS
incorpora una forma explícita de establecer los
objetivos de evaluación basada en ponderaciones,
actividades para tratar los riesgos del proyecto, y
calcular el grado de calidad del producto, en función
de la importancia relativa de los ítems de calidad.
Asimismo presenta una experiencia de aplicación en el
que se evaluó un producto software eCommerce,
utilizando el proceso de evaluación definido.
Abraham Dávila
Departamento de Ingeniería
Pontificia Universidad Católica del Perú
Lima, Perú
[email protected]
calidad, al momento de calcular el grado de calidad
alcanzado por el producto durante la evaluación [1]
debido a que son modelos preescriptivos (dicen qué
hacer) y no descriptivos (no dicen cómo); por
ejemplo, a partir de las sub-características de
calidad externa de la ISO/IEC 9126, en el contexto
de una evaluación podría ser más importante la
Precisión, o la Adecuación (a requerimientos), que
la Interoperabilidad, la Seguridad de acceso, y el
Cumplimiento de estándares.
ISO (International Organization for Standardization)
inició la revisión de estas series de normas (ISO/IEC
9126 e ISO/IEC 14598) bajo la serie 250xx
denominada SQuaRE (del Inglés Software Quality
Requirements and Evaluation) [4]. A la fecha han
publicado algunos de sus modelos de calidad como la
ISO/IEC 25010, pero aún no se han publicado sus
métricas, por lo que no puede utilizarse para los fines
de la certificación de software.
1. Introducción
2. Objetivos y alcance
En Argentina hay incentivos gubernamentales para
la certificación de productos software, la cual se lleva a
cabo considerando las series de normas internacionales
IRAM-ISO/IEC 14598, el modelo de calidad IRAMNM-ISO/IEC 9126-1 y las métricas de la ISO/IEC 9126
partes 2, 3 y 4 [13]. Durante las primeras certificaciones
se detectaron algunos problemas tales como:
- el modelo de calidad no consideraba algunos
aspectos relevantes para la industria de software de
Argentina, como por ejemplo, la seguridad de la
información, que se consideraba como una subcaracterística de la Funcionalidad y se acotaba a
seguridad de acceso y trazas de auditoría;
- la ISO/IEC 14598, y su sucesora la ISO/IEC 25040
no indican en forma explícita el procedimiento para
ponderar las atributos y sub-características de
El objetivo de este artículo es presentar un proceso
de evaluación que puede ser utilizado a los fines de la
certificación de productos software y que se ha
utilizado en más de 10 proyectos de evaluación
realizados entre el 2012 y 2015. De estos proyectos se
han publicado 2 casos de estudio en formato de tesis de
grado, uno de los cuales se presenta como estudio de
caso de este artículo. Se debe destacar que el proceso
que se describe ha sido utilizado para evaluar productos
software cuyos certificados ISO/IEC 25000 están
próximo a ser emitidos por el IRAM. Como este
proceso es parte de un marco de trabajo (Framework)
MyFEPS, se explica brevemente en qué consiste el
Framework y su modelo de calidad QSAT. Queda fuera
del alcance de este artículo la comparación entre el
modelo QSAT y otros modelos de calidad de productos
software, la cual ha sido presentada en CONAIISI2014
[16].
3. Marco de trabajo (Framework) MyFEPS
En el 2010 se inició el proyecto de investigación
denominado "Metodologías y Framework para la
evaluación de productos Software" (MyFEPS), con el
objetivo principal de elaborar un Framework integral,
que incluyera:
- un nuevo modelo de calidad basado en ISO/IEC
9126 y extendido para las necesidades de la
industria de software de Argentina; y
- un proceso de evaluación de productos software
que permita establecer pesos relativos de los Ítemes
de Calidad (IC) para obtener el nivel de calidad de
un IC de categoría superior;
De esta manera se podría responder las siguientes
preguntas:
- Al calcular el grado de calidad de un IC, como
puede ser la Característica Funcionalidad, ¿todos
sus IC de nivel inferior (Sub-características) tienen
la misma Importancia Relativa (IR) para esta
evaluación? De no tenerla, ¿cómo estimo cuál es la
IR de cada IC?
El resultado del proyecto MyFEPS, es un marco de
trabajo (en adelante framework) de evaluación de
software constituido por el nuevo modelo de calidad
QSAT, el proceso de evaluación de productos software
MyFEPS, y un conjunto de herramientas de apoyo al
proceso de evaluación. El proceso de evaluación de
software MyFEPS es genérico y puede aplicarse para
evaluar cualquier tipo de software y una amplia lista de
características de calidad.
3.1. Modelo de calidad QSAT
Como se explicó en la Introducción, se habían
identificado falencias a la hora de utilizar el modelo de
calidad ISO/IEC 9126 en las evaluaciones de productos
software, por lo que el proyecto MyFEPS fue iniciado a
comienzos de 2010 y obteniéndose el QSAT como un
modelo de calidad de producto software.
El modelo QSAT se organiza mediante
características, sub-características, atributos y métricas
relacionadas. Estos elementos se presentan mediante un
estudio de caso de producto de eCommerce
denominado para el estudio eCOMM.
El modelo de calidad QSAT tiene una estructura
jerárquica, al igual que los modelos ISO/IEC 9126-1
[17] e ISO/IEC 25010 [2]. En el nivel más alto se ubica
el Contexto, según el cual se definen Características
Básicas (CB) de calidad del producto software. Una CB
sólo puede asociarse a un único Contexto, el que
determina una o más CB. Una CB se compone de Subcaracterísticas (SubC) que la definen. Cada SubC puede
evaluarse a partir de Atributos (Atr), utilizando
Métricas (Métr). El modelo QSAT contiene un nivel
intermedio de Sub-sub-característica (SubSubC), que
no tienen los modelos ISO/IEC. La estructura del
modelo se representa en la Figura 1.
Figura 1. Estructura del Modelo de Calidad
QSAT.
El modelo QSAT presenta 6 contextos: Ser usado,
Ser probado, Ser instalado, En su interacción con el
entorno, Ser Desarrollado, y Ser adaptado. Tiene 17
Características Básicas: Adaptabilidad, Calidad de los
artefactos,
Facilidad
de
mantenimiento,
Estandarización, Facilidad de Instalación, Capacidad
para
ser
probado,
Constancia,
Correctitud,
Cumplimiento Legal, Efectividad, Eficiencia, Manejo
de fallas, Satisfacción de las partes interesadas (en
adelante stakeholders) que no son usuarios, Satisfacción
subjetiva de los usuarios, Usabilidad (objetiva),
Seguridad de no causar daños, Seguridad Informática, y
de ellas se descomponen 71 SubC [16].
A continuación se dan ejemplos de Características
Básicas, Sub-Características, Atributos y Métricas del
modelo de calidad QSAT, en función del contexto Ser
usado (ámbito de aplicación) para el producto eCOMM
cuya evaluación de calidad se presenta en la sección 5,
y fue presentada con anterioridad en forma sintética en
CONAIISI 2014 [15].
CB1. Característica Básica: “Satisfacción subjetiva
de los usuarios”: en qué medida el software hace sentir
confortable al usuario, en el contexto de una nueva
versión, de modo que los usuarios tienen una subjetiva
percepción de satisfacción por el uso del sistema. Las
sub-características, atributos, métricas y formulas se
presentan en las Tablas 1, 2, 3. 4, 5 para la CB1.
Tabla 1. Ejemplo en detalle de la SC 1.1 de CB1.
SC1.1
Atr1.1.1
Metr1.1.1
Fórmula
Confort Físico
Grado de Confort percibido en entorno de Uso
Se calcula en función de las respuestas de usuarios a un
cuestionario dado
1. Sea NU (número de Usuarios)
2. Para suma=0 e i=1 hasta NU, de 1 en 1, hacer
2.1. Obtener GCFi (Grado de confort, según la opinión
del usuario. Se mide entre 0 y 1)
2.2. suma+=GCFi Fin
3. Valoración de la Confortabilidad del producto=
Suma/UN
Tabla 2. Ejemplo en detalle de SC 1.2 de CB1.
SC1.2
Atr1.2.1
Metr1.2.1
Fórmula
Facilidad en el Acceso a las Funciones
Facilidad de Acceso a las Funciones en el entorno de
uso
Se calcula en función de las respuestas de usuarios a un
cuestionario dado
1. Sea NU (número de Usuarios)
2. Para suma=0 e i=1 hasta NU, de 1 en 1, hacer
2.1. Obtener GFAi (Grado de facilidad en el acceso a las
funciones, según la opinión del usuario. Se mide entre 0
y 1)
2.2. suma+=GFAi Fin
3. Valoración de la Facilidad en el Acceso a las
funciones= Suma/NU.
Fórmula
CB2. Característica Básica: “Usabilidad Objetiva”:
en qué medida el software posibilita a los usuarios
desempeñar su rol con una eficiencia mayor a una preestablecida. Las sub-características, atributos, métricas
y formulas se presentan en las Tablas 6, 7, 8. 9,10,11 y
12 para la CB2.
Tabla 6. Ejemplo en detalle de SC 2.1 de CB2.
SC2.1
Atr2.1.1
Metr2.1.1
Fórmula
Tabla 3. Ejemplo en detalle de SC 1.3 de CB1.
SC1.3
Atr1.3.1
Metr1.3.1
Fórmula
Comprensión de las salidas del sistema
Comprensión de las salidas del Sistema en entorno de
uso
Se calcula en función de las respuestas de usuarios a un
cuestionario dado
1. Sea NU (número de Usuarios)
2. Para suma=0 e i=1 hasta NU, de 1 en 1, hacer
2.1. Obtener GCSi (Grado de Comprensión de las
salidas del Sistema, según la opinión del usuario. Se
mide entre 0 y 1)
2.2. suma+=GCSi
Fin
3. Valoración del Grado de Comprensión de las salidas
del Sistema= Suma/NU.
Fórmula
Estética
Estética percibida en entorno de uso
Se calcula en función de las respuestas de usuarios a un
cuestionario
1. Sea NU (número de Usuarios)
2. Para suma=0 e i=1 hasta NU, de 1 en 1, hacer
2.1. Obtener GCSi (Grado de Estética, según la opinión
del usuario. Se mide entre 0 y 1)
2.2. suma+=GEi
Fin
3. Valoración del Grado de Estética del Sistema=
Suma/NU.
Tabla 5. Ejemplo en detalle de SC 1.5 de CB1.
SC1.5
Atr1.5.1
Metr1.5.1
Satisfacción Total
Satisfacción Total percibida en entorno de uso
Se calcula en función de las respuestas de usuarios a un
cuestionario dado
Usabilidad Objetiva en el Aprendizaje
Tiempo Promedio de Aprendizaje Intuitivo en entorno
de Uso
Se calcula a partir de la siguiente fórmula
1. Obtener la lista de X Estudiantes/Operadores del
Sistema.
2. Obtener LTOE (Lista de Tareas Organizacionales
relacionadas con el Sistema, Esperables de realizar)
3. Obtener TiLTOE (El tiempo en que se espera que se
ejecuten la lista de Tareas Organizacionales relacionadas
con el Sistema)
4. Para Corrida=0 hasta LTOE
4.1. Para Suma=0 Y i=1 hasta X, de a 1, Hacer
4.1.1. Medir TOR(i)
4.1.2. Suma+=TOR(i); Fin
Para Suma Fin para Corrida
Media=Suma/X;
Si Media < TiLTOE Entonces Valoración=1
SINO Valoración= = Media/TiLTOE
Tabla 7. Ejemplo en detalle de SC 2.2/Atr2.2.1 de
CB2.
SC2.2
Atr2.2.1
Metr2.2.1
Fórmula
Tabla 4. Ejemplo en detalle de SC 1.4 de CB1.
SC1.4
Atr1.4.1
Metr1.4.1
1. Sea NU (número de Usuarios)
2. Para suma=0 e i=1 hasta NU, de 1 en 1, hacer
2.1. Obtener GSi (Grado de Estética, según la opinión
del usuario. Se mide entre 0 y 1)
2.2. suma+=GEi
Fin
3. Valoración de la Satisfacción Total percibida en
entorno de uso= Suma/NU.
Usabilidad Objetiva en la Coherencia de la IU
Nro. de reglas de IU estándares cumplidas por el sistema
Se calcula a partir de la siguiente fórmula
1. Obtener NCESE (la Totalidad de Características
Estándares para el Sistema en Estudio).
2. Encontrar dentro del sistema la CESC (Características
Estándares del Sistema en Estudio).
3. Valoración = CESC/NCESE
Tabla 8. Ejemplo en detalle de SC 2.2/Atr2.2.2 de
CB2
SC2.2
Atr2.2.2
Metr2.2.2
Fórmula
Usabilidad Objetiva en la Coherencia de la IU
Lostness: Promedio de Interfaces visitadas hasta
completar la tarea
Se calcula a partir de la siguiente fórmula
1. Definir NMIT (Número Mínimo de Interfaces para
completar una Tarea).
2. Elegir X usuarios.
3. Se definen las variables:
SumIDV: Sumatoria de las Interfaces distintas Visitadas
en cada LTOE por el usuario.
SumIV: Sumatoria de todas las Interfaces Visitadas en
cada LTOE por el usuario.
SumLOST: Sumatoria del Lostness de cada usuario.
4. SumLOST=0
5. Para i=1, hasta i== LTOE, de uno en uno, hacer:
a. Para j=1, hasta j==X de uno en uno, hacer:
b. Hasta completar LTOE(i) hacer: SumIDV=SumIV=0
SI la interfaz acaba de accederse y nunca fue visitada
Entonces SumIDV+=1, FIN
SI SumIV++; FIN b
SumLOST+=1- FIN j
FIN i
6. Valoración = SumLOST/(X*LTOE)
Tabla 9. Ejemplo en detalle de SC 2.3/Atr2.3.1 de
CB2.
SC2.3
Atr2.3.1
Metr2.3.1
Fórmula
En la entrada manual de la información
Cantidad de Tareas Organizacionales (De la Empresa)
realizadas por Hora (o por Unidad de Tiempo Fija) en
entorno de Uso
Se calcula a partir de la siguiente fórmula
1.Obtener LTOE (Lista de Tareas Organizacionales
relacionadas con el Sistema, Esperables de realizar)
2. Obtener TiLTOE (El tiempo en que se espera que se
ejecuten la lista de Tareas Organizacionales relacionadas
con el Sistema)
3. Obtener la lista de X Operadores del Sistema
4. Obtener la cantidad M de pruebas del LTOE
5. Para Corrida=0 hasta M
5.1. Para Suma=0 Y i=1 hasta X, de a 1, Hacer
a. Medir TOR(i)
b. Suma+=TOR(i); Fin Para Suma Fin para Corrida
6. Media=Suma/(X*M);
7. Si Media < TiLTOE Entonces Valoración=1
SINO Valoración= = Media/TiLTOE
Tabla 10. Ejemplo en detalle de SC 2.3/Atr2.3.2 de
CB2.
SC2.3
Atr2.3.1
Metr2.3.1
Fórmula
En la entrada manual de la información
Ayuda para la Prevención de Errores en el ingreso
manual de Información en entorno de Uso
Se calcula a partir de la siguiente fórmula
1. Elegir X Usuarios (al azar) del Sistema
2. SumaAE =TACE=SumAE=0
3. Para i=1, hasta i==X, de 1 en 1 Hacer:
a. TACE(i)=Medir Nro. de Controles que el usuario
logra completar con Éxito.
b. nTACE(i)=Medir Nro. de Controles que el usuario
no logra completar con Éxito.
c. SumAE+=TACE(i)
d. nSumaAE+=nTACE(i) Fin
4.Valoración = SumAE/(nSumaAE+SumaAE)
Tabla 12. Ejemplo en detalle de SC 2.5 de CB2.
SC2.5
Atr2.5.1
Metr2.5.1
Fórmula
Efectividad del Help
Cantidad de errores de los que el Help ayuda al usuario a
recuperarse
Se calcula a partir de la siguiente fórmula
1. Elegir X usuarios.
2. SumE=0
3. Para i=1, hasta i==X, de un en 1, hacer:
a. Calcular Cantidad de errores de los que logró
recuperarse el usuario (CCER) gracias al Help
b. Calcular Cantidad de errores de los que NO logró
recuperarse el usuario (nCCER) gracias al Help
c. SumE+=CCER(i)
d. nSumE+=nCCER(i)
4.Valoración = SumE/(nSumaE+SumaE)
3.2. Proceso de evaluación de productos
software MyFEPS
El proceso de evaluación de productos software se
descompone en Etapas, Actividades y Tareas (como se
definen los procesos en ISO/IEC 12207 [11]. MyFEPS
tiene etapas similares a las del proceso de evaluación de
productos software de la ISO/IEC 25040 pero difiere a
nivel de actividades. En MyFEPS se han incorporado
nuevas actividades para poder realizar encuestas a los
stakeholders que permitan precisar los objetivos de la
evaluación y que permitan ponderar los resultados de
las mediciones. El proceso en MyFEPS tiene 5 Etapas
principales (ver Figura 2): Establecer Requisitos y
Objetivos, Especificar la Evaluación, Diseñar la
Evaluación, Evaluar el Producto, y Concluir la
Evaluación.
Establecer Requisitos y Objetivos-Establecer el propósito de la evaluación- Identificar el producto a evaluar- Identificar los requerimientos de calidad- Administrar los riesgos de la evaluación
- Elegir el marco de calidad-
Tabla 11. Ejemplo en detalle de SC 2.4 de CB2.
SC2.4
Atr2.4.1
Metr2.4.1
Fórmula
En el acceso a las funciones
Velocidad en el Acceso a las funciones
Se calcula a partir de la siguiente fórmula
1. Obtener el NFTot (todas las Funciones
Implementadas) para el Sistema
2. Para Suma=0 e i=0 hasta NFI, de 1 en 1 hacer
a. Registrar su Tiempo(i) de acceso a la función
b. Suma+=Tiempo(i)
3. MediaNFI=Suma/NFI
4. Obtener La LTAF (Lista de Tiempo Medio de Acceso
a Funciones)
5. Obtener la MLTF (Media de LTAF)
6. Valoración = MLTF/MediaNFI
Especificar la Evaluación
- Definir recursos de la evaluación Conformar el equipo evaluador
- Seleccionar las métricas
- Establecer criterios para ponderar los
itemes de calidad
- Establecer fidelidades de medición
-
Diseñar la Evaluación
- Preparar recursos e infraestructura
- Elaborar el Plan de mediciones
- Elaborar el Plan de pruebas
- Obtener y adecuar recursos para la
evaluación
Evaluar el Producto
- Completar los cuestionarios
- Realizar las pruebas
- Medir los atributos requeridos por las
métricas
- Registrar valores de métricas en el modelo
de evaluación
- Obtener resultados
Concluir la Evaluación
- Analizar los resultados
- Informar el Grado de Calidad
- Documentar la Evaluación
Figura 2. Etapas y Actividades del MyFEPS
1)
Etapa: Establecer Requisitos y Objetivos
Las actividades de esta etapa son: Establecer el
propósito de la evaluación, Identificar el producto a
evaluar, Identificar los requerimientos de calidad,
Elegir el marco de calidad y Administrar los riesgos de
la evaluación. A continuación se describen estas
actividades:
a) Establecer el propósito de la evaluación (id3): se
trata de identificar los objetivos de negocio que
debe satisfacer el producto, que han llevado a la
necesidad de evaluar el producto.
b) Identificar el producto a evaluar (id4): se debe
identificar claramente si se trata de un producto
completo, o de un módulo, y su estado: en
desarrollo, desarrollado, en evaluación o en
selección.
c) Identificar los requerimientos de calidad (id5):
en esta etapa, hay que definir:
stakeholders del proyecto (evaluador,
factor normativo, inversor en el
desarrollo, sponsor, usuario, etc.)
- requerimientos de calidad del producto de
software que se desean evaluar.
d) Administrar los riesgos de la evaluación (Id6):
MyFEPS considera la administración de riesgos
esencial al proceso de evaluación, ya que en
función del nivel de riesgo del producto a
evaluar, se puede determinar la rigurosidad de la
evaluación [9]. Por tal motivo se ha definido
como actividad explícita del proceso, en lugar
de dejarse a criterio del líder del proyecto.
e) Elegir el marco de calidad (id7): En esta etapa
hay que:
- Definir el modelo de calidad a usar (id8):
en función de los requerimiento de calidad
identificados (tarea id5), se selecciona un
modelo de calidad de referencia. Se puede
usar el Modelo QSAT [16], MyFEPS[1],
el modelo ISO/IEC 9126, el modelo
ISO/IEC 25010 (cuando se publiquen sus
métricas) u otro modelo que definan los
stakeholders.
- Definir la “rigurosidad” del modelo (id9):
esta
definición
debe
realizarse
considerando el tipo de producto a evaluar
(id4), el objetivo de la evaluación (id3), y
la actividad administración de riesgos
(id6), ya que a mayor nivel de riesgo (de
vida, de seguridad, económico) mayor
debe ser la rigurosidad con que se
evaluarán los Ítems de Calidad (IC) [9].
2)
Etapa: Especificar la Evaluación
Las actividades de esta etapa son: Definir recursos
de la evaluación, Conformar el equipo evaluador,
Seleccionar las métricas, Establecer criterios para
ponderar los ítemes de calidad, y Establecer fidelidades
de medición. Se definen a continuación:
a) Definir recursos de la evaluación (id15): en base
a los objetivos de evaluación definidos en
función del modelo de calidad, y considerando
las Rigurosidades y Fidelidades especificadas,
se procede a identificar los recursos necesarios
para la Evaluación, que abarcan: Instalaciones,
Infraestructura Tecnológica (Hardware y
Software), Recursos Humanos (de gestión y
operativos, con la formación y habilidades
necesarias a los fines de la evaluación),
Herramientas Tecnológicas (Hardware y
Software), etc.
b) Conformar el equipo evaluador (id16): se
seleccionan los Recursos Humanos disponibles
para el proyecto, en función de los roles que se
requieren para el proyecto, algunos de los cuales
dependen de la CB y las SubCB a evaluar.
c) Seleccionar las métricas (id17): el evaluador
debe seleccionar las métricas que utilizará para
medir cada Atributo.
d) Establecer criterios para ponderar los ítems de
calidad (CB, SubCB, Atr) (id18): en esta
actividad, todos los stakeholders completan las
planillas de ponderación de ítemes de calidad,
es decir, el peso que se asigna a la importancia
relativa IR de cada cada Atributo, Sub-SubCaracterística,
Sub-Característica
y
Característica. Asimismo en esta actividad se
establecen los valores objetivo de puntuación
para cada Ítem de Calidad, y para el Grado de
calidad del producto. Es decir, igualando o
superando qué valor el producto pasa
exitosamente la evaluación.
e) Establecer fidelidades de medición (id19): a
continuación hay que determinar la fidelidad
con la que se van a medir las Métricas,
considerando el riesgo del producto estimado en
id9. A mayor riesgo, la fidelidad es cercana a 1,
a menos riesgo, es cercana a 0.
3)
Etapa: Diseñar la Evaluación
Las actividades de esta etapa son: Preparar recursos
e infraestructura, Elaborar el Plan de mediciones,
Elaborar el Plan de pruebas, y Obtener y adecuar
recursos para la evaluación. Se detallan a continuación:
a) Preparar recursos e infraestructura (id21): se
deben conseguir los recursos definidos en id15
y se evalúa si la infraestructura (instalaciones,
mobiliario, equipamiento informático y de
comunicaciones) es adecuada para el proyecto.
En caso de no serlo, se debe adecuar la
infraestructura actual para que, al final de esta
etapa, esté disponible para su uso en el
proyecto.
b) Elaborar el plan de mediciones (id22): en esta
actividad se realiza un plan detallado con las
mediciones que deben llevarse a cabo durante el
proyecto, que permitan calcular las métricas
correspondientes a los Atr, SubCB y CB a
evaluar. Se fija un calendario para las tareas de
medición,
considerando
nuevamente
la
actividad Administrar los Riesgos (Id9), con el
fin de asegurarse que el plan se pueda ejecutar
en los tiempos estimados, en función de los
recursos disponibles.
c) Elaborar el plan de pruebas (id23): en función
de las Métricas, Atr, SubCB y CB a evaluar, se
deben realizar de las siguientes tareas:
- Elaborar los Casos de prueba (id24):
definir qué casos de prueba se llevarán a
cabo, en qué ambiente, con qué métodos
y/o herramientas y en qué fecha.
- Diseñar el Ambiente de prueba (id25): se
revisa la infraestructura (id21) para
asegurarse que sea adecuada para
configurar el/los ambiente/s donde se
realizarán las pruebas identificadas en
id24.
- Documentar los Casos de Prueba (id26):
constatar si los casos de prueba definidos
en
id24
están
completamente
documentados, conteniendo al menos el
nombre de la prueba, objetivo, ambiente,
interfaz, componente, acciones, valores de
entrada, resultado esperado.
d) Obtener y adecuar recursos para la evaluación
(id27): en esta actividad debe quedar el
ambiente de pruebas listo para su uso,
incluyendo
Hardware,
comunicaciones,
dispositivos necesarios, software de base, de
aplicaciones, utilitarios, etc.
4)
Etapa: Evaluar el Producto
Las actividades de esta etapa son: Completar los
cuestionarios, Realizar las pruebas, Medir los atributos
requeridos por las métricas, Registrar valores de
métricas en el modelo de evaluación, y Obtener
resultados. Se describen a continuación:
a) Completar los cuestionarios (id29): el grupo de
Especialistas responde los Cuestionarios de
Medidas Estándares, en función de las
características consideradas en la Evaluación.
b) Realizar las pruebas (id30): se realizan las
pruebas definidas en cada caso de prueba (id32)
y se registran los datos de su ejecución,
incluyendo los hallazgos encontrados (id33).
Una vez ejecutados todos los casos de prueba se
obtendrán estadísticas para conocer la cantidad
total de pruebas exitosas, la cantidad total de
pruebas no exitosas, y la identificación de los
defectos correspondiente.
c) Medir los Atributos requeridos por las Métricas
(id35): realizadas todas las pruebas y obtenidos
todos los cuestionarios realizados, se procede a
calcular los valores obtenidos para cada
Métrica.
d) Registrar valores de métricas en el Modelo de
evaluación (id36): para realizar los cálculos de
las medidas obtenidas y considera sus
ponderaciones se recomienda utilizar una
herramienta de apoyo. En MyFEPS se elaboró
una planilla de cálculo denominada Modelo de
Evaluación que se encuentra dentro del conjunto
de elementos de apoyo para este proceso. En
esta planilla se registran las mediciones y los
factores de ponderación para poder obtener el
Grado de calidad del producto evaluado.
e) Obtener Resultados (id37): concluida la carga
de los valores obtenidos al calcular cada Métrica
en la planilla, y considerando el factor de
Ponderación resultante (id18), se obtendrá el
Grado de calidad del producto evaluado, al que
llamaremos G.
5)
Etapa: Concluir la Evaluación
Las actividades de esta etapa son: Analizar los
resultados, Informar el Grado de Calidad, y
Documentar la Evaluación, y se describen a
continuación:
a) Analizar los resultados (id39): se analizan los
resultados del proceso de evaluación, se
comparan con los criterios de éxito definidos en
id18, para concluir si el producto pasó
exitosamente la evaluación, o no. En esta
actividad es importante resaltar los desvíos
ocurridos, los defectos encontrados, y sugerir
recomendaciones de mejora del producto.
b) Informar el Grado de Calidad (id40): en función
del Grado de calidad G obtenido en id 37 y del
Análisis de los Resultados (id 39), se elabora un
Informe de evaluación, el cual debe ser
comunicado al cliente.
c) Documentar la Evaluación (id41): se debe dejar
documentado el Proyecto completo, así como
los defectos encontrados y sus correcciones.
3.3. KIT de Herramientas de MyFEPS
El Framework MyFEPS proporciona a su vez un
conjunto de elementos de apoyo al proceso de
Evaluación de productos software, compuesto por
guías, plantillas, mapeos a los modelos de Calidad
ISO/IEC 9126-1 y 25010, y bases teóricas que dieron
sustento al modelo, los que están fuera del alcance de
este artículo. Las bases teóricas pueden leerse en
JAIIO2011 [1].
4. Alineamiento de MyFEPS a la norma
ISO/IEC 25040
El proceso de evaluación MyFEPS se elaboró
tomando como base el proceso de la ISO/IEC 14598 y
las mejoras del nuevo proceso ISO/IEC 25040, e
incluyendo la experiencia del equipo de investigación.
En particular, MyFEPS introduce:
a) actividades de la gestión de riesgos como una
actividad relevante dentro de su proceso y que
está basada en la ISO/IEC 31000 ; y
b) la ponderación de los atributos de calidad
basada en un esquema de ponderación de Ítemes
de Calidad, a partir de pesos recogidos mediante
cuestionarios realizados a stakeholders clave
para el proyecto.
En el Apéndice A se presenta un mapeo de alto nivel
realizado entre MyFEPS y la ISO/IEC 25040, con el
propósito de mostrar el alineamiento que existe por
parte de MyFEPS con el proceso establecido en la
norma ISO/IEC 25040, y con un segundo objetivo de
evidenciar las incorporaciones adicionales de MyFEPS
que no están en la ISO/IEC 25040. Al pie de la tabla se
explica que cuando la norma ISO/IEC 25040 no
menciona actividades no es que no se realicen tareas
similares, sino que no han sido formalmente
identificadas con nombres explícitos.
5. Aplicación del proceso de evaluación de
productos software MyFEPS
Durante el Proyecto MyFEPS, luego de establecer
un nuevo modelo de calidad QSAT y el proceso de
evaluación de productos software MyFEPS, se llevaron
a cabo proyectos de evaluación con el objetivo de
validar si el proceso y el modelo de calidad eran
adecuados para su propósito y si eran comprensibles
para evaluadores no expertos. A continuación se
describe brevemente el proyecto de evaluación dep
producto eCOMM, que consistió en la evaluación de
Usabilidad de un producto eCommerce, siguiendo las
etapas de MyFEPS:
1)
Etapa 1: Establecer Requisitos y Objetivos.
Se llevaron a cabo sus 5 actividades principales: a.
Identificar el Producto: (a) Evaluar, (b) Establecer el
Propósito de la Evaluación, (c) Identificar los
Requerimientos de Calidad, (d) Elegir el Marco de
Calidad y (e) Administrar los Riesgos de la Evaluación.
El objetivo de la evaluación era conocer el nivel de
satisfacción de los usuarios del producto software
Prosys-Ecommerce versión 2.2.0 (eCOMM) en base a
su experiencia en el uso del sistema (usabilidad).
eCOMM era un producto terminado y en uso, que
tiene por funcionalidad principal vender pasajes de
ómnibus on-line. La evaluación comprendió sus 8
funcionalidades principales: Home con buscador de
servicios, Resultados con respuesta a búsqueda de
servicios, Plano de ómnibus, Check-Out para ingresar
datos de pago, Gateway de Pago (interfaz con
Validador de Tarjetas de Crédito), Confirmación
(informa al usuario el éxito de su compra),
Desambiguación (ayuda al usuario a seleccionar otra
parada próxima, en el caso de que la buscada no exista
en el sistema), y Error (página que reporta problemas al
usuario).
Asimismo los stakeholders deseaban que se evaluará
su usabilidad con métricas objetivas. Ambos
requerimientos se evaluaron utilizando el modelo de
Tabla 13. Cuestionario de Pesos de Ponderación de
IC.
13 Satisfacción de los Usuarios
P untuac ion
T otalm ente s in
im portanc ia
A lgo im portante
Im portante
M edianam ente
Im portante
M uy im portante
X
13.1 Confort Fisico
X
13.2 En el Acceso a las Funciones
X
13.3 En la Comprensión de las salidas del sistema
X
13.4 En la Estética
X
13.6 Satisfacción Total
X
17 Usabilidad Objetiva
X
17.1 En el Aprendizaje
X
17.1.3 Tiempo promedio de Aprendizaje intuitivo
17.2 En la Coherencia de la IU
X
17.2.1 Nro de reglas de IU estándares cumplidas por el sistema
X
X
X
17.8.2 Lostness: Promedio de Paginas visitadas hasta completar la tarea
17.3 En la Entrada Manual de Informacion
X
17.3.2 Cantidad de Tareas Organizacionales (De la Empresa) realizadas por Hora
X
17.3.3 Ayuda para la Prevención de Errores en el ingreso manual de Información
17.4 En el Acceso a las Funciones
X
17.4.1 Velocidad en el Acceso a las Funciones
17.7 Efectividad del Help
X
X
17.7.2 Cantidad de errores de los que el Help ayuda al usuario a recuperarse
X
X
Una vez que se completaron todos los cuestionarios,
se obtuvo así la Importancia Relativa que cada
Stakeholder asignó a cada Ítem de Calidad, y se obtuvo
el promedio de IR asignado a cada Ítem de Calidad,
considerando el total de cuestionarios, que se
correspondía con el total de stakeholders. Esta medida
se consideró la Importancia Relativa Final, obtenida
para cada Ítem de Calidad, como muestra la Tabla 14:
Caracteristicas
13 Satisfacción de los Usuarios
S t a k e H o ld e rs
Tabla 14. Importancia Relativa Final
P u n t u a c io n
calidad QSAT, considerando sus características básicas
(CB) “Satisfacción de los usuarios” y “Usabilidad
Objetiva”. Respecto de los riesgos, el software a
evaluar no era un producto de alto riesgo ya que no
implica riesgo de vida, asimismo no había complejidad
tecnológica, ni de calendario.
2)
Etapa 2: Especificar la Evaluación.
Se llevaron a cabo sus correspondientes actividades:
(a) Definir los recursos de la Evaluación, (b) Conformar
el equipo Evaluador, (c) Seleccionar las Métricas, (d)
Establecer Ponderación de ítemes de calidad a evaluar y
(e) Establecer fidelidades de medición.
Luego del análisis de riesgos inicial, se definieron
los recursos de infraestructura, conectividad, y se
conformó el equipo evaluador: se identificaron 4
stakeholders en función de las disponibilidades de
Recursos de la empresa donde se realizó el Test, estos
fueron: Directora Operativa, Responsable Comercial,
Jefe de Tecnología, Tester; a su vez el equipo evaluador
estaba integrado por 5 personas: 1 Analista QA, 2
Ingenieros de Software, 1 Project Manager y 1 Tester;
por último, en las pruebas de satisfacción de usuarios
participaron 12 usuarios.
El siguiente paso fue seleccionar las características
básicas CB a evaluar, sus sub-características SubCB,
atributos Atr y métricas Mtr. Las CB seleccionadas
fueron “Satisfacción de los usuarios” SAT, y
“Usabilidad Objetiva” USO. Para calcular SAT se
seleccionaron las subCB “Confort Físico”, “Facilidad
en el Acceso a las Funciones”, “Comprensión de las
salidas del sistema”, “Estética” y “Satisfacción Total”.
Para medir USO se seleccionaron las SubCB “En el
Aprendizaje”, “En la Coherencia de la IU”, “En la
entrada manual de la información”, “En el acceso a las
funciones”, y “Efectividad del Help”. Las métricas
correspondientes fueron descriptas en la sección 3.1.
Seleccionadas las métricas que se utilizaran para
calcular el grado de calidad del producto software, se
estableció la Importancia Relativa (IR) de cada Ítem de
Calidad (IC), solicitando a los Stakeholders del
proyecto que completen los Cuestionarios de Pesos de
Ponderación de los IC como “Muy Importante”,
“Importante”, “Medianamente importante”, “Algo
importante”, “Totalmente Sin Importancia”. Cada
respuesta, tiene asociado un valor, “1”, “0,75”, “0,50”,
“0,25”, y “0” respectivamente, que luego sirve para
calcular el promedio de importancia de cada punto. El
cuestionario utilizado se muestra en la siguiente Tabla
13.
3
0.75
2.25
0.56
13.2 En el Acceso a las Funciones
2.5
0.63
13.3 En la Comprensión de las salidas del sistema
2.25
0.56
13.4 En la Estética
2.5
0.63
13.6 Satisfacción Total
2.75
0.69
13.1 Confort Fisico
17 Usabilidad Objetiva
3
0.75
17.1 En el Aprendizaje
2.25
0.56
17.1.3 Tiempo promedio de Aprendizaje intuitivo
17.2 En la Coherencia de la IU
2.25
0.56
2.25
0.56
2.25
0.56
17.2.1 Nro de reglas de IU estándares cumplidas por el sistema
17.2.2 Lostness: Promedio de Paginas visitadas hasta completar la tarea
17.3 En la Entrada Manual de Informacion
2.25
0.56
2.5
0.63
17.3.2 Cantidad de Tareas Organizacionales (De la Empresa) realizadas por Hora
2.5
0.63
17.3.3 Ayuda para la Prevención de Errores en el ingreso manual de Información
17.4 En el Acceso a las Funciones
2.5
0.63
2.5
0.63
17.4.1 Velocidad en el Acceso a las Funciones
17.7 Efectividad del Help
2.5
0.63
2.5
0.63
2.5
0.63
17.7.2 Cantidad de errores de los que el Help ayuda al usuario a recuperarse
Las IR obtenidas para cada Ítem de Calidad se
utilizaron para realizar las ponderaciones.
3)
Etapa 3: Diseñar la Evaluación.
Se llevaron a cabo sus actividades: (a) Preparar
Recursos e Infraestructura, (b) Elaborar el Plan de
Mediciones, (c) Elaborar el Plan de Pruebas, (d)
Elaborar los Casos de Prueba, (e) Diseñar el Ambiente
de Prueba, (f) Documentar cada caso de prueba y (g)
Obtener y adecuar los Recursos necesarios para la
Evaluación.
Se definieron los casos de prueba para la
Característica Básica “Usabilidad Objetiva”:
a) Revisión de la presencia de las características
estándares en el sistema en todo el sitio: se
inspeccionaron todas las interfaces del sistema
para comprobar la presencia de las
características estándares del sistema en cada
una de ellas.
b) Compra Pasaje de Ida: en este caso de prueba se
pretendía comprar sólo un pasaje de ida, sin
retorno.
c) Compra de Pasaje de Ida y Vuelta: este caso de
prueba incluía un pasaje de ida y otro de vuelta.
d) Compra de Pasaje de Ida sin servicios
disponibles para la fecha ingresada: en este caso
de prueba, los usuarios realizaron búsquedas de
viajes de Ida para una fecha dada, que no
tuviera servicios disponibles.
e) Compra de Pasaje de Ida y vuelta sin servicios
disponibles para la fecha ingresada: los usuarios
realizaron búsquedas de viajes de Ida y Vuelta
para una fecha dada, que no tuviera servicios
disponibles.
f) Compra de Pasaje de Ida con paradas no
reconocidas por el sistema: los usuarios
ingresaron en la búsqueda una parada origen no
reconocida por el sistema.
g) Compra de Pasaje de Ida y vuelta con paradas
no reconocidas por el sistema: los usuarios
ingresaron en la búsqueda una parada de origen
y/o de destino, no reconocida por el sistema.
h) Compra de Pasaje de Ida con tarjeta Inválida: se
ingresó un número de tarjeta inválida al comprar
un pasaje de ida. El sistema debía rechazar la
tarjeta inválida. Pero además se debía permitir
rectificar los datos y para con datos de tarjeta
válida.
i) Compra de Pasaje de Ida y Vuelta con tarjeta
Inválida: mismo caso que el anterior, pero para
pasajes de Ida y Vuelta.
j) Compra de pasaje de ida "intuitiva": se buscaron
usuarios que nunca antes habían comprado
pasajes on-line, y se les requirió que compren
un pasaje de Ida.
k) Recuperarse de Errores del Sistema: los
usuarios ejecutaron errores identificados en la
lista de errores del sistema e intentaron
recuperarse de cada uno de ellos.
No se describen cómo se llevaron a cabo estas
actividades por no ser relevantes al propósito de
explicar cómo se realizaron las ponderaciones para
obtener el grado de calidad.
4)
Etapa 4: Evaluar el Producto.
Por ser una evaluación que incluye Satisfacción de
usuarios, se completaron los cuestionarios de
satisfacción (id29), se preparó el ambiente de prueba
(id31), y se ejecutaron los casos de prueba (id32) y
(id33). Se midieron los Atributos requeridos por las
Métricas (id35), para poder evaluar cada SubCaracterística, registrándose los valores obtenidos en
cada Métrica (id36), para esto se utilizó una Plantilla
Excel que conformaba el Modelo de Evaluación según
el listado de Características y Sub-características
seleccionadas para esta evaluación. Se registró el
resultado de las mediciones y sus ponderaciones en
dicha planilla para obtener el Resultado de la
evaluación (id37), es decir, el Grado de Calidad del
Producto en función del Objetivo de la Evaluación. O
sea, se obtuvo el valor de G.
En esta etapa los 12 usuarios finales ejecutaron los
casos de prueba b, c, d, e, f, g, h, i, j, k. El caso de
prueba a fue ejecutado por el tester. El caso de prueba e
fue ejecutado nuevamente por el tester para medir los
tiempos de todas las funciones implementadas por el
sistema.
Finalmente se elaboraron los cuestionarios de
“Satisfacción de Usuarios” para que respondan el grupo
de usuarios conformado para la evaluación. Como se
explicó con anterioridad, este cuestionario es un
requisito para la evaluación de la característica
“Satisfacción de los Usuarios” y sus respectivas subcaracterísticas seleccionadas. El cuestionario se
compone de 5 secciones, siendo cada sección una subcaracterística de la característica “Satisfacción de los
Usuarios”. Estas partes son: “Satisfacción en el Confort
Físico”, “Satisfacción en el Acceso a las Funciones”,
“Satisfacción en la Comprensión de las Salidas del
Sistema”, “Satisfacción en la Estética” y “Satisfacción
total”.
Cada una de las sub-características fue valorada por
los 12 usuarios en un rango de 0 a 1, siendo 0 el peor
valor y 1 el valor óptimo, en el medio podían
seleccionar los valores 0.25 "algo importante", 0.5
"medianamente importante" y 0.75 "importante":
a) “Satisfacción en el Confort Físico”: en qué
medida le resultó confortable físicamente el uso
del sistema teniendo en cuenta como factores de
influencia negativos: movimientos incómodos,
ataques foto sensitivos, etc. El valor 1
significaba
“El
sistema
resultó
muy
confortable”. El valor 0 significaba “El sistema
resultó sumamente incómodo”. Se obtuvo una
media de 0,88/1.
b) “Satisfacción en el Acceso a las Funciones”: Se
pregunta en qué medida le resultó fácil el acceso
a las distintas funciones ofrecidas por el sistema
en cuanto a la identificación de la función y los
datos necesarios para su ejecución. El valor 1
significaba “El acceso a las funciones resultó ser
Muy sencillo”. El valor 0 significaba “El acceso
a las funciones resultó ser Sumamente
complejo”. Se obtuvo una media de 0,79/1.
c) “Satisfacción en la Comprensión de las Salidas
del Sistema”: en qué medida las salidas
mostradas por sistema fueron comprendidas
teniendo en cuenta los resultados obtenidos de
cada función, mensajes de advertencia y error, y
demás información. El valor 1 significaba “La
información mostrada por el sistema resultó
Clara y fácil de comprender”. El valor 0
significaba que “La información mostrada por el
sistema resultó Confusa y poco Comprensible”.
Se obtuvo una media de 0,63/1.
d) “Satisfacción en la Estética”: en qué medida le
resultó agradable el diseño y apariencia del
sistema. El valor 1 significaba “El sistema
resultó muy atractivo y agradable”. El valor 0
significaba “El sistema resultó Sumamente
desagradable”.Se obtuvo una media de 0,83/1.
e) “Satisfacción total”: en qué medida se sintió
satisfecho con el uso del sistema teniendo en
cuenta si lo volvería o utilizar o no. El valor 1
significaba “El usuario se sintió altamente
satisfecho con el sistema y lo volvería a usar”.
El valor 0 significaba “El usuario se sintió
sumamente insatisfecho y no volvería a usar el
sistema”. Se obtuvo una media de 0,79/1. Los
valores obtenidos se ilustran en la Tabla 15.
TABLA 15: Cuestionario de Satisfacción de los
Usuarios
5)
Etapa 5: Concluir la Evaluación
Se analizaron los resultados del proceso de
Evaluación (id39) en busca de desvíos, con el fin de
identificar
recomendaciones de mejora para el
producto. También se reportaron los desvíos
evidenciados. Luego, en función del Grado de Calidad
G obtenido en id37 y del Análisis de los Resultados
(id39), se elaboró un informe, el que fue comunicado al
cliente. Por último se constató que todo el proyecto
haya sido correctamente documentado (id41).
Una vez finalizadas las encuestas, las mediciones y
calculadas las métricas, se procede a calcular el Grado
de Calidad del producto software evaluado conforme a
los requerimientos de la evaluación, al que llamaremos
G. Para esta etapa se utilizó una plantilla Excel para
Calcular el Grado de Calidad de un Producto software,
como muestra la Tabla 15 del apéndice B.
Luego de realizarse los cálculos, como establece la
Planilla de la Tabla 15, se obtuvo un Grado de calidad
de 0,79/1 del producto eCommerce considerando sus
Características Básicas Satisfacción de Usuarios y
Usabilidad objetiva.
6. Conclusiones
Se ha presentado el proceso de evaluación del
Framework MyFEPS, basado en el proceso de
evaluación de productos software que describe la norma
ISO/IEC 25040, que ha reemplazado a la ISO/IEC
14598-1. Asimismo se ha presentado un estudio de caso
en el cual se ha evaluado un producto de eCommerce,
para mostrar que el proceso puede ser aplicado, incluso
por personal no experto, que participaba de su primera
evaluación de software.
Se ha realizado una breve comparación entre los
procesos de evaluación MyFEPS e ISO/IEC 25040, en
la que puede observarse que en MyFEPS se han
respetado las 5 actividades principales propuestas por
ISO/IEC 25040: (1) Establecer los requisitos de la
Evaluación, (2) Especificar la Evaluación, (3) Diseñar
la Evaluación, (4) Ejecutar la Evaluación, (5) Concluir
la Evaluación [10] pero se han agregado actividades. En
primer lugar las actividades propias del proceso de
gestión de riesgos se han formalizado dentro del
proceso de evaluación, y no como parte de actividades
de seguimiento del proyecto. Esto enfatiza la
importancia que tiene la gestión de riesgos,
convirtiéndola en una actividad obligatoria que debe
realizarse dentro del proceso de evaluación, en lugar de
dejarla opcional a la experiencia del Administrador del
Proyecto de Evaluación. En segundo lugar, se han
agregado actividades necesarias para registrar la
Importancia Relativa (IR) que tienen los Ítems de
Calidad para los stakeholders o partes interesadas en el
proyecto de evaluación, y actividades para ponderar
Ítemes de Calidad (Características Básicas, Subcaracterísticas, Sub-sub-características, y Atributos)
que les otorgan los stakeholders.
Respecto del proyecto de evaluación del producto
eCOMM, las conclusiones principales fueron que el
proyecto pudo llevarse a cabo de acuerdo a lo
planificado, siguiendo el proceso de evaluación de
productos de software MyFEPS [14]. Asimismo el
modelo de calidad QSAT resultó completo (al menos
para el objetivo de este proyecto) y pudo utilizarse sin
inconveniente por parte del equipo evaluador y de
stakeholders no expertos, creándose buena sinergia
entre ellos durante el proyecto gracias a la participación
que se daba a stakeholders. Por último, resultó valioso
que el modelo de calidad considere tanto la Usabilidad
subjetiva, basada en encuestas a usuarios, como la
objetiva, que considera métricas que no se basen en la
opinión de usuarios [15].
7. Agradecimientos
Agradecemos Amos Sorgen, quien co-dirigió el
proyecto MyFEPS desde el 2010 al 2012, a la empresa
TSOFT por apoyar este proyecto [13], y a Alejandro
Oliveros por sus comentarios sobre este artículo.
8. Referencias
[1] Sorgen, A., Angeleri, P.: El Modelo de Evaluación del
Proyecto MyFEPS, 40JAIIO - ASSE 2011 - ISSN: 18502792, 180-191, (2011),
[2] ISO/IEC 25010 Systems and software engineering —
Systems and software Quality Requirements and Evaluation
(SQuaRE) – System and software quality model.
[3] ISO/IEC 25040 Systems and software engineering —
Systems and software Quality Requirements and Evaluation
(SQuaRE) — Evaluation process.
[4] ISO/IEC 25000 Systems and software engineering —
Systems and software Quality Requirements and Evaluation
(SQuaRE) – Overview
[5] ISO/IEC 25041 Systems and software engineering –
Systems and software Quality. Requirements and Evaluation
(SQuaRE) – Evaluation guide for developers, acquires and
evaluators
[6] IRAM-ISO-IEC 14598-1: Proceso de Evaluación. 2005
[7] IRAM-ISO/IEC 14598-3: Proceso en Desarrollo de
Software. 2008
[8] IRAM-ISO/IEC 14598-4: Proceso en Adquisición. 2008
[9] IRAM-ISO/IEC 14598-5: Proceso en Evaluación
Independiente. 2008
[10] ISO/IEC 25040:2012. Systems and software engineering
— Systems and software Quality -Requirements and
Evaluation . (SQuaRE) — Evaluation process. 2012
[11] ISO/IEC 12207 Information Technology / Software Life
Cycle Processes
[12] ISO 31000:2009 - Principles and Guidelines on
Implementation.
[13] Angeleri, P., Sorgen, A., Bidone, P., Fava, A., Grasso,
W.; Diseño y desarrollo de un framework metodológico e
instrumental para asistir a la evaluación de software, 43
JAIIO - JUI 2014 - ISSN: 1851-2518 - Página 10,
[14] Santi, M., Medición de la Usabilidad de un Ecommerce
empleando el Framework MyFEPS, tesis de grado de
Universidad de Belgrano, 2013.
[15] Santi, M., Evaluación de la Usabilidad de un sitio de
Comercio Electrónico empleando el Framework MyFEPS,
CONAIISI 2014.
[16] Angeleri, P.;Oliveros, A; Sorgen, A.; Titiosky, R.;
Wuille Bille J.; Modelo de calidad de productos de software,
CONAIISI 2014, ISSN: 2346-9927 - Página 1043.
[17] IRAM-NM-ISO/IEC 9126-1 Tecnología de la
información-Ingeniería de software - Calidad del producto
Parte 1 - Modelo de calidad (ISO/IEC 9126-1:2001, IDT)
Information technology - Software engineering - Product
quality Part 1 - Quality Model 1, IRAM, 2009.
[18] Rolando Titiosky, Paula M. Angeleri, Amos Sorgen,
Jaquelina Wuille Bille: "Proyectos de Evaluación de
Productos de Software con un nuevo Framework de Calidad",
XV Workshop de Investigadores en Ciencias de la
Computación 2013, ISBN: 9789872817961, .
Apéndice A. Mapeo de alto nivel entre MyFEPS y la norma ISO/IEC 25040
Id
2
3
4
Actividad / Sub-actividad / Tarea de MyFEPS
Establecer Requisitos y objetivos
Establecer el Propósito de la Evaluación
Identificar el Producto a Evaluar
Ref
1
1-1
1-2
5
Identificarlos Requerimientos de Calidad
1-3
6
7
8
9
10
11
12
13
14
15
16
17
Administrar Riesgos de la Evaluación
Identificar Riesgos de Proyecto
Producto
Analizar los Riesgos
Tratar los Riesgos
Monitorear los Riesgos
Elegir el Marco de Calidad
Definir El Modelo de Calidad a Usar
Definir la Rigurosidad del Modelo
Especificar la Evaluación
Definir Recursos para la Evaluación
Conformar Equipo Evaluador
Seleccionar las Métricas
N/E
y/o
18
19
Establecer Ponderación de Ítems de calidad
Establecer Fidelidades de Medición
20
21
22
23
24
25
26
27
37
Diseñar la Evaluación
Preparar Recursos e Infraestructura
Elaborar el Plan de Mediciones
Diseñar las Pruebas
Elaborar los casos de Prueba
Diseñar el Ambiente de Prueba
Documentar los Casos de prueba
Obtener y Adecuar Recursos para la
Evaluación
Evaluar el Producto
Realizar encuestas
Realizar las Pruebas
Armar el Ambiente de Prueba
Ejecutar casos de Prueba
Documentar sus Ejecuciones
Concluir la Prueba
Medir los Atributos requeridos por las Métricas
Registrar los Valores de las Métricas en el
Modelo de Evaluación
Obtener Resultados
38
39
40
41
Concluir
Analizar los resultados
Concluir el Grado de Calidad
Documentar la Evaluación
28
29
30
31
32
33
34
35
36
ISO/IEC FDIS 25040
Establecer los requisitos de evaluación
Establecer propósito de la evaluación
Obtener los requisitos de calidad de productos
de software
Identificar las partes de productos para ser
incluido en la evaluación
N/E
N/E
N/E
N/E
1-4
2
Definir el rigor de la evaluación
Especificar la evaluación
2-1
3
Seleccione las medidas de calidad (módulos de
evaluación)
N/E
Definir criterios para la toma de medidas de
calidad
Establecer criterios de decisión para la
evaluación
Diseñar la evaluación
4
Ejecutar la evaluación
4-1
Las actividades de evaluación del Plan
4-1
Realice mediciones
4-2
4-3
Aplicar los criterios de decisión de las medidas
de calidad
Aplicar criterios de decisión para la evaluación
Concluir la evaluación
Revise los resultados de la evaluación
Cree el informe de evaluación
Examen de evaluación de calidad y
proporcionar información a la organización
Realizar la disposición de los datos de
evaluación
2-2
2-3
5
5-1
5-2
5-3
5-4
Las referencias en blanco en el modelo ISO significa que no hay una tarea identificada, pero no indica que no se
lleve a cabo. En cambio N/E indica que no hay una tarea equivalente, por ejemplo en el modelo ISO no hay una
tarea en la cual se establezcan parámetros de ponderación de Ítems de Calidad en base a cuestionarios realizados a
stakeholders.
Apéndice B. TABLA 4: Planilla de Cálculo del Grado de Calidad del Producto