b - Ciencias de la Ingeniería UTE

Enfoque UTE es una revista de carácter técnico-científico, que publica artículos sobre trabajos de
investigación científica y tecnológica, revisión del estado del arte en un área específica del conocimiento y
trabajos de vinculación con la comunidad en los cuales se realizaron actividades de investigación científica.
La revista abarca las áreas temáticas de las ingenierías Ambiental, de Alimentos, Automotriz, Industrial,
Informática, Mecatrónica y de Petróleos.
Enfoque UTE está dirigida a la comunidad de docentes, investigadores y estudiantes universitarios, de
pregrado y posgrado en general.
Enfoque UTE
Volumen 6 – Número 2
Junio – 2015
e-ISSN: 1390-6542 (electrónico) / p-ISSN: 1390-9363 (impreso)
Copyright © 2010 - 2015
Facultad de Ciencias de la Ingeniería
Universidad Tecnológica Equinoccial
http://ingenieria.ute.edu.ec/enfoqueute/
Teléfono: +593-(2)-2990-800 ext.2232
Dirección: Av. Mariscal Sucre (Occidental) y Mariana de Jesús, s/n.
Quito-Ecuador
Comité Editorial
Director
Jorge Viteri Moya, Universidad Tecnológica Equinoccial, Ecuador
Coordinador Comité Editorial
Diego Ordóñez Camacho, Universidad Tecnológica Equinoccial, Ecuador
Comité Editorial
Juan Bravo, Universidad Tecnológica Equinoccial, Ecuador
Analía Concellón, Universidad Nacional de La Plata, Argentina
Albert Ibarz, Universidad de Lleida, España
Alberto Medina, Universidad de Matanzas "Camilo Cienfuegos", Cuba
Neus Sanjuan, Universidad Politécnica de Valencia, España
Gabriela Vernaza, Universidad San Francisco de Quito, Ecuador
Fabián Villavicencio, Universidad de las Fuerzas Armadas, Ecuador
Índices / Catálogos / Bases de datos
DOAJ (Directory of Open Access Jou rnals)
https://doaj.org/toc/1390-6542
OAJI (Open Academic Journals Index)
http://oaji.net/journal-detail.html?number=1783
e-Revistas
http://www.erevistas.csic.es/ficha_revista.php?oai_iden=oai_revista1748
Catálogo Latindex
http://www.latindex.unam.mx/buscador/ficRev.html?folio=22038
GIF (Global Impact Factor)
http://globalimpactfactor.com/enfoque-ute/
CiteFactor
http://www.citefactor.org/journal/index/10856
OALib
http://mailer.oalib.net/journal/5934
WorldCat
http://www.worldcat.org/title/enfoque-ute-revista-cientifica/oclc/856580285
Electronic Journals Library
https://opac.giga-hamburg.de/ezb/detail.phtml?bibid=GIGA&lang=en&jour_id=205084
Academic Journals Database
http://journaldatabase.info/journal/issn1390-6542
DRJI (Directory of Research Journals Indexing)
http://drji.org/JournalProfile.aspx?jid=1390-6542
Journal TOCs
http://www.journaltocs.ac.uk/index.php?action=browse&subAction=pub&publisherID=2651&journ
alID=28767
Google Scholar
http://scholar.google.com/scholar?q=Enfoque+UTE
Contenido
Determinantes de exposición a material particulado en el área textil ......................................... pp. 1 - 14
Carlos Rosales, Jorge Viteri, Nadya Rivera, Raúl Comas
Síndrome del edificio enfermo en los bloques académicos de una institución de educación superior
................................................................................................................................................ pp. 15 - 24
Fabián Ortíz Terán, Bolívar Haro Haro
Predicción de variables operacionales en el proceso de Producción de Crudos por Segregación
Gravitacional Asistida por Vapor (SAGD) .................................................................................. pp. 25 - 43
David Lowy, Geovanna Garrido, Vinicio Melo
Implementación de prácticas de laboratorio con costo mínimo …. ............................................. pp. 44 - 58
Idalberto Tamayo Ávila, Luis Geovanny Pazmiño Bravo, Diego Fabián Valencia Alvear, Mayra Mariuxi Galván
Paredes, Marcos Antonio Batista Zaldívar
Utilización de plukenetia volubilis (sacha inchi) para mejorar los componentes nutricionales de la
hamburguesa .......................................................................................................................... pp. 59 - 76
Daniela Baldeón Clavijo, Francisco Velásquez Rodríguez, Jesús Eligio Castellanos Estupiñán
Aproximación empírica para el diseño de planes de muestreo simple por atributos bajo inspección
normal basados en las normas COVENIN 3133-1:2001 y MIL-STD-105E ..................................... pp. 77 - 85
Mairett Rodríguez –Balza, Luis Pérez-Ybarra, William Quintana-Rivero
Reglas de asociación en el cómputo de utilización de libros en una biblioteca universitaria ..... pp. 86 - 101
María Alejandra Malberti Riveros, Raúl Oscar Klenzi
Herramientas de desarrollo con soporte colaborativo en Ingeniería de Software .................. pp. 102 - 116
Julio C. Caiza, Danny S. Guamán, Gabriel R. López
Mejoramiento en la productividad de software por la adaptación de un marco de desarrollo ágil
............................................................................................................................................ pp. 117 - 134
Ángel Fiallos Ordoñez
Prefacio
Enfoque UTE ha sido reconocida, desde la edición de Marzo 2015, con la inclusión en seis
nuevos índices de revistas científicas: e-Revistas, CiteFactor, OALib, WorldCat, Electronic
Journals Database y Academic Journals Database. Son 13 en total los índices en los que Enfoque
UTE ha sido ingresada hasta el momento. Nuestro compromiso con la comunidad científica es
cada vez más fuerte.
La presente edición cuenta con 9 artículos de investigación tecnológica y de ingeniería,
cubriendo temáticas muy variadas.
En primer lugar se presenta un estudio sobre la emisión de partículas en las áreas de trabajo de
empresas textiles.
Luego se analiza el Síndrome del Edificio Enfermo en varios edificios de una institución de
educación superior.
A continuación se estudia el proceso SAGD para la producción de crudos pesados.
El cuarto artículo establece las ventajas de la implementación in-house de laboratorios para
Física en la educación superior, analizando varios casos prácticos.
El siguiente artículo analiza las ventajas nutricionales al incluir productos alternativos naturales
en la elaboración de hamburguesas.
En el sexto artículo se propone una distinta forma de cálculo para el tamaño de la muestra en la
verificación de productos industriales.
Inmediatamente se presenta un estudio basado en reglas de asociación para el análisis del uso
de libros en una biblioteca universitaria.
Como octavo artículo se hace una revisión de distintos tipos de herramientas de desarrollo
colaborativo en la elaboración de software
Finalmente, se analiza el posible incremento de la productividad en el desarrollo de software
con una combinación de metodologías y herramientas libres.
Este Comité manifiesta su profundo agradecimiento a todos quienes con su trabajo
desinteresado hacen posible el éxito de Enfoque UTE.
Comité Editorial
Quito, junio 2015
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/05/11
Aceptado (Accepted): 2015/06/03
CC BY-NC-ND 3.0
Determinantes de exposición a material particulado en el área textil
(Determinants of exposure to particulate matter in textiles)
Carlos Rosales1, Jorge Viteri2, Nadya Rivera1, Raúl Comas3
Resumen:
El objetivo de la investigación fue determinar la exposición a material particulado en una
empresa textil en la línea de producción de blanquería (fabricación de sábanas y edredones).
3
Las mediciones se efectuaron para la fracción respirable 2,5 μg/m mediante el uso de un
equipo de lectura directa. El estudio determinó que la operación con las máquinas overlock es
donde se genera mayor cantidad de material particulado, con un valor máximo de 244 µg/m³, y
un mínimo en la máquina dobladora con un valor de 9 µg/m³. Durante la investigación se
conoció la percepción de los empleados respecto a su trabajo.
Palabras clave: organización del trabajo; fracción respirable; límite de exposición
Abstract:
The objective of the research was to determine the exposure to particulate material in the textil
area of a manufacturing company of linens and duvets, where it is carried out measurements of
particulate material in respirable fraction 2.5 μg/m3. The same were made through the use of
the equipment of direct reading and the results are compared with the value set limit. The study
found that in the operation with the overlock machines is where there is a greater amount of
particulate matter getting the maximum value in the entire production plant of 244 µg/m³, and a
lower value machine in the bender with a value of 9 µg/m³ During the course of the
investigation, it wanted to know the perception of the employees, to do this a survey was
administered in a manner that takes first-hand the opinion with regard to the work. Among the
results is that the staff is aware that there is particulate matter and if you have had respiratory
complaints, indicate that the organization presents a great deal of commitment to the security
and they also are involved in the tasks.
Keywords: work organization; respirable fraction; Exposure Limit
1. Introducción
En la actualidad los cambios que se han generado en materia de seguridad y salud ocupacional
para disminuir los niveles de accidentes y precautelar el bienestar de los trabajadores (Gallego C.,
Paeres R., & Gómez, 2010), son importantes. En el Ecuador se han generado leyes, acuerdos,
decretos en función de la seguridad y salud ocupacional como son: la Constitución de la Republica
1
Universidad Tecnológica Equinoccial, Quito – Ecuador ({carlos.rosales, nivera}@ute.edu.ec)
Universidad Central del Ecuador, Quito – Ecuador ([email protected])
3
Universidad de Sancti Spíritus, Sancti Spíritus – Cuba ([email protected])
2
2
en sus artículos 334 y 3265, el Instrumento Andino de Seguridad y Salud en el trabajo (Decisión
584), Código del Trabajo del Ecuador, Reglamento del Seguro General de Riesgos del Trabajo
(Resolución C.D. 390), Reglamento de Seguridad y Salud de los Trabajadores y Mejoramiento del
Medio Ambiente de Trabajo (Decreto Ejecutivo 2393), Sistema de Auditorias de Riesgos del
Trabajo (SART Resolución C.D. 333). Estas normativas conllevan a tomar en cuenta la seguridad
y prevención de riesgos tanto en los sitios de trabajo como en las personas.
La cultura de la prevención de riesgos es fundamentada en el compromiso y la participación
(OISS, 2009). En el país, hace más de dos décadas, existe un marco legal, descrito
anteriormente, que presenta la cultura de la prevención como el eje, objetivo y medio fundamental
para conseguir una mejora efectiva de las condiciones de vida y de trabajo de la población
laboralmente activa. Sin embargo, se puede decir que aún no se ha iniciado este proceso de
manera consciente y no se ha logrado obtener resultados altamente satisfactorios en su aplicación
en los diferentes medios de producción en el país. Es así como en múltiples sectores se muestra:
un interés por la obligación y el cumplimiento legal en materia de seguridad, generar una cultura,
reducir la siniestralidad y enfermedades laborales.
A pesar de la existencia de una base legal, que fomenta el desarrollo de la cultura de prevención,
las empresas están trabajan en la concientización en seguridad y salud ocupacional y no han
alcanzado una madurez apropiada. Las actividades laborales conllevan a que puedan haber
eventos nocivos o no deseados que afectan la salud humana, ya sea por las condiciones en las
que realiza las actividades o por el entorno laboral (Creus & Magnosio, 2011). Los trabajadores y
empleadores observan que no se cumplen las exigencias normativas y los sistemas de control no
son suficientes para la implantación adecuada de un sistema de prevención, como resultado se
tiene una alta accidentalidad.
Un aspecto importante es el relacionado con la Responsabilidad Social Empresarial (RSE). El
empresario asume un compromiso voluntario de como contribuir al desarrollo social sustentable
desde el punto de vista sistémico. La RSE es un instrumento integrador que considera diversos
elementos y relaciones de la estructura de una organización para: la identificación de
necesidades, determinación de estrategias, la selección, aplicación y evaluación de los resultados
obtenidos; esto que genera un modelo de gestión que permite a la empresa incorporar dentro de
4
“El trabajo es un deber y un derecho social, y un derecho económico, fuente de realización personal y
base de la economía. El estado garantizará a las personas trabajadores, el pleno respeto a su dignidad, una
vida decorosa, remuneraciones y retribuciones justas y el desempeño de un trabajo saludable y libremente
escogido y aceptado”.
5
El derecho al trabajo se sustenta en los siguientes principios:
5. Toda persona tendrá derecho a desarrollar sus labores en un ambiente adecuado y propicio, que
garantice su salud, integridad, seguridad, higiene y bienestar.
6. Toda persona rehabilitada después de un accidente de trabajo o enfermedad, tendrá derecho a ser
reintegrada al trabajo y a mantener la relación laboral, de acuerdo con la ley.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
3
su planificación estratégica herramientas para responder a las necesidades del entorno y sus
stakeholders o grupos de interés. Las empresas deben hacerlos partícipes en los procesos de
toma de decisiones institucionales para alcanzar la excelencia. (Viteri & Jácome, La
Responsabilidad Social como Modelo de Gestión Empresarial, 2013)
La industria textil del Ecuador, en el tiempo, ha generado empleo, tanto directo como indirecto,
llegando a ser uno de los sectores manufactureros que más mano de obra emplea, después del
sector alimentario. En el país hay alrededor de 3 500 negocios, entre grandes, pequeños y
formales, dedicado a la fabricación textil, con una producción estimada de 770 MMUSD para el
2013. (AITE, 2014)
El sector industrial textil necesita cotidianamente la evaluación de los determinantes de material
particulado, ya que en las organizaciones, si bien se conoce que existe contaminación en el
ambiente laboral, se evalúa poco el nivel de exposición al que son sometidos los trabajadores.
En la planta objeto de estudio las condiciones de trabajo son adecuadas y los trabajadores cuentan
con medio de protección, pero la seguridad y salud ocupacional se lleva deficientemente, no se cuenta
con los registros de la actividad, ni de las acciones de capacitación que se realizan. Para la
investigación se tomaron muestras de cada sitio de trabajo y se determinó la cantidad de material
particulado al que se encuentran expuestos los trabajadores, con esto se logra conocer en qué
operación o máquina se genera mayor cantidad de este material.
Para la realización del estudio se evaluó la organización del trabajo, teniendo en cuenta:

Jornada de trabajo.

Tipo de cargo.

Rutina de trabajo.
También se evaluaron las condiciones de trabajo:

El mantenimiento (limpieza).

Conocimientos sobre seguridad e higiene del trabajo.

Características de la tarea.
Por todo lo anterior planteado, el objetivo de la investigación es determinar la exposición a
material particulado en una empresa textil en la línea de producción de blanquería (fabricación de
sábanas y edredones).
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
4
2. Materiales y métodos
Se realizó un estudio de corte transversal según los lineamientos de la investigación descriptiva y
correlacional de tipo cuantitativo con rasgos de cualitativo. Se utilizó también el análisis
documental con un estudio de los principales documentos rectores de la empresa objeto de
estudio.
El sistema de variables que orientó la investigación se muestra en la figura 1. Las variables
consideradas son: las normas básicas de seguridad, herramientas en el proceso de fabricación,
ambiente de trabajo y niveles de concentración de material particulado.
Ambiente de trabajo,
Factores climáticos
Niveles de concentración de
material particulado
Proceso de fabricación
Normas básicas de seguridad
Figura 1. Sistema de variables
Para la aplicación de la encuesta de recolección de datos, al personal que labora en el centro de
trabajo y por el número de trabajadores en la planta, se determinó aplicarla a toda la población y
realizar las mediciones en el 100% de la planta de producción textil.
Métodos, técnicas e instrumentos de la Investigación
Para obtener los resultados se utilizó el método descrito en la nota técnica de prevención del
Instituto Nacional de Seguridad e Higiene del trabajo (INSTH) NTP 808 (Marti Veciana, Antonio;
Guardino Solá, Xavier, 2008), y la estrategia de medición según la norma europea UNE-EN 689
(CENELEC, 1995) la cual indica:

Definir el tipo de contaminante que existe.

Seleccionar la muestra para la medición de exposición.

Toma de muestra con un instrumento de medición.
En caso de la medición ser de corta duración, como en el caso de estudio, los requisitos a cumplir
de acuerdo a la nota técnica del INSHT NTP 808 se muestran en la tabla 1 (Marti Veciana,
Antonio; Guardino Solá, Xavier, 2008).
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
5
OBJETO DE LA
MEDIDA
Evaluación inicial de la
concentración ponderada
en el tiempo
Tabla 1. Requisitos de medida de material particulado
REQUISITOS DEL PROCEDIMIENTO DE MEDIDA






Selectividad adecuada al agente químico;
tiempo de muestreo menor o igual al período de referencia del VL;
un intervalo de medida que incluya el valor límite;
una incertidumbre expandida que se ajuste a la finalidad de la medición.
Evaluación inicial de la
selectividad adecuada al agente químico;
concentración con el
un tiempo de muestreo corto (≤ 5 min ó ≤ 15 min, según sean variaciones
tiempo o en el espacio
de la concentración en el tiempo o en el espacio);
 un intervalo de medida que se ajuste al objeto de la medición;
 una incertidumbre expandida que se ajuste a la finalidad de la medición.
Mediciones de
 no ambigüedad, en el intervalo de medida específico y en los resultados de
comparación con los
la concentración del agente químico que se está midiendo;
valores límite y
 selectivas, con información adecuada sobre la naturaleza y magnitud de
mediciones periódicas
cualquier interferencia;
 tiempo de ponderación igual al tiempo de muestreo, que debe ser menor o
igual al período de referencia del VL;
 intervalo de medida que cubra de 0,1 a 2 veces el VL para medidas a largo
plazo y de 0,2 a 2 veces el VL para las de corta duración;
 los requisitos de la incertidumbre expandida que figuran en Tabla 2;
 el transporte y el almacenamiento de las muestras cuando sea apropiado,
debe llevar a cabo de modo que se mantenga la integridad física y
química;
 los efectos de las condiciones ambientales sobre el funcionamiento del
método debe ser ensayadas en condiciones de laboratorio, mientras que
los demás (ambigüedad, selectividad, incertidumbre, etc.) en el lugar de
trabajo;
 los procedimientos de medida deben ser redactados según la Norma ISO
78-2, conteniendo toda la información necesaria para llevar a cabo el
procedimiento de medida (ver NTP 547:2000).
Fuente: (Marti Veciana, Antonio; Guardino Solá, Xavier, 2008)
Criterios de valoración
El procedimiento para las mediciones de material particulado es el establecido por la NIPO 21106-050-8 (INSHT, 2006). Se toma una muestra de la fracción inhalable de materia particulada,
índicador requerido por el reglamento de seguridad y salud de los trabajadores y mejoramiento del
medio ambiente (IESS, 1986).
Posteriormente los datos obtenidos serán comparados con los valores Límites Máximos
Permisibles (TLV) de exposición, que para el caso de estudio se comparará con el valor límite del
algodón.
La toma de muestra se realiza durante el intervalo de costura, en la línea de producción de
blanquería, que varía de acuerdo a la prenda que se confecciona.
Instrumento de medición
Considerando las características y existencia en el mercado y la lectura inmediata se escoge el
equipo de lectura directa EVM de la empresa 3M. El equipo EVM es un equipo compacto, de fácil
manejo, con capacidad para monitorear simultáneamente y en tiempo real, varios parámetros de
calidad del aire y partículas, sus características se muestran en la tabla 2.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
6
Tabla 2. Especificaciones del instrumento de medición
ESPECIFICACIONES
Tipo:
EVM
Nº de serie:
ENK050002
Firmware:
R.10
Ultima recalibración: 29/03/2013
Condiciones: 0 - +50ºC / -20 - +60ºC
10 – 90% HR / 0 – 95% HR
65kPa – 108 kPa
Características: Partículas, Humedad relativa
Temperatura
Sensor de partículas:
Tamaño de partícula: 0,1µm a 10 µm (puede detectar
partículas sobre las 100 µm)
Selector mecánico de partículas
Selector de PM 2,5-PM 4-PM 10 o PM (1,67 L/min)
Unidades. mg/m³- µg/m³
Muestreo gravimétrico: flow: ±5%
back-pressure cassette gravimétrico
> 5kPa
> 20 inch of water 1,67 lpm
Sensor de humedad relativa
Sensor capacitivo Rango: 0-100% Error 0.1
Sensor de temperatura Rango: 0 – 60 ºC Error: 0,1
Sensor: CO
Sensor: CO2
Sensor: PID Voc
Instrumento de recolección de datos
Para la recolección de datos y conocer la percepción de los empleados se realizó una encuesta a
los treinta operadores de la planta de producción, validándola por el método Delphi. Se realizaron
cuatro rondas hasta llegar a un consenso entre los expertos que valoraron la encuesta.
3. Resultados
Previo a la obtención de resultados se debe indicar que la organización trabaja en una sola
jornada de 7:00 de la mañana hasta las 15:30 de las cuales son 8 horas laborables y 30 minutos
de almuerzo. Para realizar las mediciones de material particulado en la planta de confección es
necesario indicar que se encuentra dividido en tres grupos, que tienen dos máquinas de overlock,
en la zona de confección de sábanas, una máquina de costura recta, una máquina para dobleces
y una mesa para el empacado. Luego de los grupos de confección está la zona de telas para
corte, y al otro lado se tiene la zona de fabricación de edredones y bordados.
Para la toma de muestra se realizó durante la labor de costura utilizando un ciclo completo que en
este caso es de duración corta es decir menor o igual a 5 minutos, de acuerdo a la norma citada
en la tabla 1. Los sitios donde se tomaron las muestras para las mediciones del material
particulado fueron establecidos y se muestran en la tabla 3.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
7
Tabla 3. Listado de toma de muestra en los sitios de planta.
Muestra N.Grupo
Sitio/máquina
1
1
Mesa de corte de hilos/empacado
2
1
Máquina overlock 1
3
1
Máquina de costura recta
4
1
Máquina dobladora
5
1
Máquina overlock 2
6
2
Mesa de corte de hilos/empacado
7
2
Máquina overlock 1
8
2
Máquina de costura recta
9
2
Máquina dobladora
10
2
Máquina overlock 2
11
3
Mesa de corte de hilos/empacado
12
3
Máquina de costura recta
13
3
Máquina overlock 1
14
3
Máquina overlock 2
15
3
Máquina dobladora
16
Acolchado
Acolchadora automática
17
Acolchado Confección edredones acolchados
18
Bordado
Bordadoras automáticas
19
Pasillo
Frontal
20
Pasillo
Posterior
21
Corte
Mesa de corte de telas
En la tabla 4 se presenta un resumen general de las mediciones tanto en valores máximos como
en promedio y el valor permisible para partículas o polvo de algodón, ya que la composición de la
tela a trabajar es de un 60 % de algodón y 40 % de material poliéster. En la figura 2 se presenta
un esquema de la distribución de planta donde se tomaron las mediciones
Bordado
Empaque
Confección
Acolchado
(6)
(5)
edredones
Automático
Corte
Área de producción de edredones (4)
Oficina
jefatura de
planta
Grupo 1
Grupo 2
Grupo 3
(2)
Materia
Prima (1)
Área de producción de sábanas (3)
Figura 2. Distribución de áreas en planta
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
8
Tabla 4. Resumen de los datos obtenidos en la planta de confección
Instrumento
Tipo: EVM
Marca: Quest
Calibración
GRUPO DE
Número de serie:
ENK050002
26-06-2014 06:23:00
PUESTO
TRABAJO
Nombre: ENK050002
MÁXIMO
PROMEDIO
TLV`s (polvo de
algodón)
Grupo 1
Mesa de corte de hilos/empacado
31 µg/m³
17 µg/m³
100 µg/m³
Grupo 1
Máquina overlock 1
29 µg/m³
14 µg/m³
100 µg/m³
Grupo 1
Máquina de costura recta
27 µg/m³
16 µg/m³
100 µg/m³
Grupo 1
Máquina dobladora
33 µg/m³
17 µg/m³
100 µg/m³
Grupo 1
Máquina overlock 2
29 µg/m³
18 µg/m³
100 µg/m³
Grupo 2
Mesa de corte de hilos/empacado
57 µg/m³
23 µg/m³
100 µg/m³
Grupo 2
Máquina overlock 1
219 µg/m³
76 µg/m³
100 µg/m³
Grupo 2
Máquina de costura recta
85 µg/m³
56 µg/m³
100 µg/m³
Grupo 2
Máquina dobladora
95 µg/m³
63 µg/m³
100 µg/m³
Grupo 2
Máquina overlock 2
244 µg/m³
143µg/m³
100 µg/m³
Grupo 3
Mesa de corte de hilos/empacado
35 µg/m³
17 µg/m³
100 µg/m³
Grupo 3
Máquina de costura recta
45 µg/m³
21 µg/m³
100 µg/m³
Grupo 3
Máquina overlock 1
93 µg/m³
72 µg/m³
100 µg/m³
Grupo 3
Máquina overlock 2
126 µg/m³
60 µg/m³
100 µg/m³
Grupo 3
Máquina dobladora
18 µg/m³
9 µg/m³
100 µg/m³
Acolchadora automática
104 µg/m³
81 µg/m³
100 µg/m³
Confección edredones acolchados
106 µg/m³
82 µg/m³
100 µg/m³
Bordadoras automáticas
153 µg/m³
92 µg/m³
100 µg/m³
Frontal
148 µg/m³
92 µg/m³
100 µg/m³
Posterior
101 µg/m³
82 µg/m³
100 µg/m³
Mesa de corte de telas
108 µg/m³
89 µg/m³
100 µg/m³
Niveles altos
Niveles medios
Niveles bajos
De la tabla anterior se observa que los puestos de costura con máquinas overlock y el área de
fabricación de edredones generan la mayor cantidad de material particulado, tanto en los niveles
máximos y promedio. Los pasillos en bordado presentan también de igual forma altos niveles que
sobrepasan el nivel de 100. µg/m³. En la figura 3 se observa los resultados de materia particulada
en la máquina overlock 2 del grupo 2 que es la que presenta mayor número de partículas emitidas
al ambiente.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
9
Figura 3. Resultado de muestreo en máquina overlock 2 grupo 2
Con la información obtenida de las encuestas se encontró que:

La mayor cantidad de personas se encuentra entre 26 y 35 años y el promedio de edad es
de 31.5 años.

La gran mayoría por el tipo de actividad que realizan son mujeres (operadoras) y apenas 5
hombres. El 83 % de los trabajadores son femeninas y el 17 % masculino.

Al conocer el tipo de empleo en relación a su situación se encontró que 5 personas eran
eventuales correspondiente al 16,7 % y el 83.3 % tienen un contrato fijo. De la información
recogida se topó que el 56.7% llevan tiempo laborando en el mismo puesto mientras que el
43.3 % ha experimentado algún cambio.

En la fábrica se laboran las 8 horas, no existen turnos rotativos, y se considera que las
máquinas son seguras.
Según la encuesta los principales riesgos que existen en su actividad se indican en la tabla 5. De
los cuales el primer factor de riesgo es la exposición a polvo y pelusas, en este caso es material
particulado con un 77%; luego están los cortes con objetos o materiales debido al uso de
elementos de corte como tijeras y cuchillas que se emplean en especial para el corte de hilos; y
luego está el atrapamiento con maquinarías.
Tabla 5. Factores de peligro y riesgo
Factor
Exposición a polvo y pelusa
Cortes con objetos o materiales
Atrapamientos con maquinaria
Golpes con objetos/herramientas
Cambios bruscos de temperatura
Ruido elevado
Lesiones al manipular carga
Contacto eléctrico
Iluminación inadecuada
Quemaduras, contacto térmico
Caídas de distinto nivel
Caídas al mismo nivel
Cantidad
%
23
19
14
12
8
6
6
4
1
0
0
0
77%
63%
47%
40%
27%
20%
20%
13%
3%
0%
0%
0%
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
10
Los encuestados consideran que las tareas que realizan pueden ocasionar algún accidente grave,
el 47 % responde que a veces, el 33 % indica que no y el 20 % responde que si, como se muestra
en la figura 4.
Considera que algunas de las tareas que
realiza puede ocasionarle accidentes graves
A veces
33%
47%
Si
No
20%
Figura 4. Tareas le puede ocasionar algún accidente grave
De la información recopilada y que se muestra en la figura 5, sobre si recuerda que se haya
producido algún accidente o enfermedad relacionada con el trabajo en la empresa, la mayoría
estos indica que no (63 %).
¿Recuerda que se haya producido algún accidente o
enfermedad relacionada con el trabajo de gravedad
especial en la empresa?
3%
A veces
34%
Si
No
63%
Figura 5. Recuerda algún accidente grave relacionado con el trabajo
La figura 6 muestra los resultados sobre si ha sufrido alguna molestia en el último año relacionada
con su trabajo, el 73% responde que no y el 27 % que si. En este aspecto han sufrido molestias 8
personas de la población encuestada. Estas molestias son en relación al trabajo.
¿Ha sufrido usted alguna molestia
relacionada con su trabajo en el último año?
27%
Si
No
73%
Figura 6. Molestias en el último año relacionadas con el trabajo
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
11
Al preguntar si ha sufrido algún accidente o lesión relacionado con su actividad pero que le haya
permitido seguir trabajando, el 63 % indica que no, el 30% dice que sí y dos personas no
responden (figura 7).
¿Ha sufrido algún accidente o lesión relacionado con su
actividad pero que le haya permitido seguir trabajando?
7%
No responde
30%
Si
No
63%
Figura 7. Ha sufrido algún accidente relacionado con el trabajo
Al conocer si ha sufrido algún accidente lesión o problema de salud relacionado con su trabajo a lo
largo de su vida laboral, el 73 % responde que no y el 23 % que si (figura 8). En este aspecto
apenas 8 personas han sufrido algún problema en relación al trabajo.
¿Ha sufrido algún accidente lesión o problema de salud
relacionado con su trabajo a lo largo de su vida laboral en
esta u otra empresa?
27%
Si
No
73%
Figura 8. Ha sufrido algún accidente a lo largo de su vida laboral
Cuando se consultó que indique si durante el proceso de su trabajo siente con frecuencia algún
síntoma o molestia (figura 9) se observa que la percepción de los operadores es que existe
molestias en el sistema respiratorio en un 36,7 % al igual que en sistema visual un 33.3 %.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
12
Indique si durante el proceso de su trabajo siente
con frecuencia algún síntoma o molestia
40,0%
36,7%
36,7%
33,3%
35,0%
30,0%
25,0%
23,3%
20,0%
15,0%
10,0%
10,0%
3,3%
5,0%
0,0%
0,0%
Cabeza
Nariz
Garganta Al Respirar
Ojos
Oídos
NR
Figura 9. Distribución en cuanto a síntomas
De acuerdo a la opinión de los operadores indica un 83% que existe compromiso de la dirección
de su empresa con la prevención de riesgos laborales (figura 10).
En su opinión existe compromiso de la dirección de
su empresa con la prevención de riesgos laborales?
3%
14%
Si
No
Nr
83%
Figura 10. Compromiso de la dirección con la prevención de riesgos laborales
Al preguntar si la empresa les proporciona los equipos de protección personal (EPP’s) todos
responden que sí, así como todos indican que la empresa si les ha indicado acerca de los riesgos
derivados de su actividad laboral y las medidas preventivas para evitarlos.
Al indagar acerca de que si la empresa les ha capacitado sobre los riesgos específicos derivados
de su actividad y la manera de cómo prevenirlos una persona responde que no y el resto
responde que si han recibido la capacitación constante.
En relación a la información que la organización proporciona al operador para evitar los posibles
riesgos en su actividad laboral el 60 % indica que es suficiente, el 40 % restante dice que no
(figura 11).
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
13
Considera que la información proporcionada es
suficiente para evitar los posibles riesgos de su
actividad profesional?
40%
Si
60%
No
Figura 11. Información proporcionada sobre los riesgos en la actividad.
4. Conclusiones y Recomendaciones
Conclusiones

De acuerdo a los resultados obtenidos de las mediciones se determinó que existe una
variabilidad con el objeto del estudio, los niveles de material particulado son heterogéneos
variando de un puesto de trabajo a otro.

El estudio determinó que en la operación con las máquinas overlock es donde se genera
mayor cantidad de material particulado obteniendo un máximo valor en toda la planta de
producción de 244 µg/m³, y un valor menor en la máquina dobladora con un valor de 9
µg/m³.

La percepción de los operadores es que existe molestias en el sistema respiratorio en un
36,7 % y en el sistema visual un 33.3 %.

El 73 % del personal no ha sufrido algún accidente lesión o problema de salud relacionado
con su trabajo a lo largo de su vida laboral. 8 personas han sufrido algún problema en
relación a la tarea realizada, representando el 23 % de los trabajadores.

El primer factor de riesgo es la exposición a polvo y pelusa como material particulado con
un 77%; luego están los cortes con objetos o materiales debido al uso de elementos de
corte como tijeras y cuchillas que se emplean en especial para el corte de hilos; y luego
está el atrapamiento con maquinarías.
Recomendaciones

Se recomienda realizar evaluaciones ergonómicas de acuerdo a la actividad, pues la
misma se efectúa por largos períodos de posición sentada.

La organización debe mejorar el sistema de información sobre las condiciones de riesgo
existentes en la planta.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
14
Bibliografía
AITE. (2010). Cifras. Boletin Mensual, 15.
CENELEC. (1995). UNE-EN Atmósfera en el lugar de trabajo. Directrices para la evaluación de la
exposición por inhalación de agentes químicos para la comparación de valores límite y
estrategia de la medición. Bruselas.
Creus, A., & Magnosio, J. (2011). Seguridad e higiene en el trabajo. Buenos Aires: Alfaomega.
Gallego C., J., Paeres R., V., & Gómez, B. L. (2010). Documentación e implementación de un
sistema de seguridad industrial y salud ocupacional: una necesidad en las empresas
colombianas. USBMed, 1(1), 46-50.
IESS. (1986). Decreto Ejecutivo 2393. Reglamento de Seguridad y Salud de los Trabajadores y
mejoramiento del Medio Ambiente de Trabajo. Quito.
INSHT. (2006). NIPO: 211-06-050-8. Toma de muestras de aerosoles. Muestreadores de la
fracción inhalable de materia particulada. España.
INSHT Instituto Nacional de Seguridad e Higiene del Trabajo. (2008). Nota técnica de prevención
808. Exposición laboral a agentes químicos: requisitos de los procedimientos de medición.
Sevilla, España: INSHT.
Marti Veciana, Antonio; Guardino Solá, Xavier. (2008). NTP 808: Exposición laboral a agentes
químicos: requisitos de los procedimientos de medición. Instituto Nacional de Seguridad e
Higiene en el Trabajo, España.
OISS. (2009). Estrategia Iberoamericana de Seguridad y Salud del Trabajo 2010-2013.
Organización Iberoamericana de Seguridad Social, Estoril, Portugal.
Viteri, J., & Jácome, M. (2013). La Responsabilidad Social como Modelo de Gestión Empresarial.
EIDOS(4), 92-100.
Viteri, J., & Jácome, M. (2013). La Responsabilidad Social como Modelo de Gestión Empresarial.
EIDOS, 92-100.
Enfoque UTE, V.6-N.2, Jun.2015, pp.1 - 14
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/04/28
Aceptado (Accepted): 2015/06/17
CC BY-NC-ND 3.0
Síndrome del edificio enfermo en los bloques académicos de
una institución de educación superior
(Sick building syndrome in blocks of an academic institution of
higher education)
Fabián Ortiz Terán1, Bolívar Haro Haro1
Resumen:
El presente trabajo de investigación tiene el objetivo de caracterizar el Síndrome del Edificio
Enfermo (SEE), en tres edificaciones de la Facultad de Ciencias de la Ingeniería de la
Universidad Tecnológica Equinoccial, en el campus Occidental. Realizado un análisis
comparativo entre los resultados de prevalencia, obtenidos en los análisis de la investigación y
comparados con el permisible de la norma NTP 290, se pudo determinar que sí existe el
síndrome en los edificios que son sujeto de esta investigación. Se aplicó el cuestionario para
los riesgos físicos y para el universo de la investigación (N=64). Con los resultados y la
valoración de la prevalencia, se elaboró una propuesta para el mejoramiento de las condiciones
de trabajo de los mismos. La investigación que se presenta servirá como indicador de la calidad
de las edificaciones al servicio de la Universidad y para futuras investigaciones.
Palabras clave: síndrome; ruido; prevalencia; ventilación; enfermo.
Abstract:
This research focusses on characterizing the sick building syndrome (SBS) on three buildings of
the Engineering Sciences Faculty, at the Occidental Campus of the Universidad Tecnológica
Equinoccial. By means of a comparative analysis between the prevalence result obtained within
the research work and a comparison with the allowable levels according to NTP290 Spanish
Code, determination was made that, in effect SBS exists in the studied buildings. The physical
risk questionnaire was applied to the universe of studied people (N=64). Based on the results
and in accordance to the prevalence appraisal, a proposal was formulated for the remediation of
the involved working conditions on the studied buildings. This research will serve as an
institutional reference for the building quality indicator of the University facilities and also for
future researches.
Keywords: syndrome; noise; prevalence; ventilation; sick.
1. Introducción
El Síndrome del Edificio Enfermo (SEE) es el nombre que se da al conjunto de síntomas diversos
que se presentan predominantemente en los individuos que ocupan estos edificios y que no van
generalmente acompañados de ninguna lesión orgánica o signo físico, diagnosticándose, a
menudo, por exclusión. (Wriu, 2007). Los factores de riesgo que los originan son múltiples: físicos,
químicos, microbiológicos, contaminantes del exterior y factores psicosociales. (Rodríguez y
Alonzo, 2004)
1
Universidad Tecnológica Equinoccial, Quito – Ecuador ({fortiz, bharo}@ute.edu.ec)
16
Los edificios enfermos se dan por un conjunto de procesos en los que destacan: malos diseños
arquitectónicos, remodelaciones y adecuaciones que no fueron planificadas
y que son el
resultado del crecimiento de las instituciones de educación superior produciendo el síndrome.
Actualmente pasamos un alto porcentaje de nuestro tiempo en ambientes cerrados, ya sea en el
trabajo, en nuestro hogar o en nuestro tiempo libre (centros comerciales, bares, cines, etc.). Esta
forma de vida en espacios interiores ha motivado para que la calidad del aire interior sea de
interés general y consecuentemente de interés laboral. En ocasiones, este aire no reúne las
condiciones idóneas para la salud y es necesario conocer sus características para tratarlo,
buscando
prevenir y evitar futuros problemas laborales, malas condiciones de trabajo, bajas
laborales, etc.
El síndrome del edificio enfermo (SEE) o el sick building syndrome (SBS) fue reconocido como
enfermedad por la Organización Mundial de la Salud en 1982. Es un padecimiento muy antiguo
del que poco se sabe en los actuales momentos y, que afecta entre un 10% y un 30% a los
ocupantes de los edificios modernos, es decir, uno de cada tres edificios construidos entre 1965 y
1975 y, que pueden influir apreciablemente en los índices de ausentismo (Berenguer Subils,
2012). Para la Facultad de Medicina de la Universidad Nacional Autónoma de México, el SEE es
el nombre que se da al conjunto de varios síntomas que presentan el 20% aproximadamente de
los usuarios de inmuebles generalmente equipados con aire acondicionado. Los síntomas que
ocasionan en la salud el trabajar en un edificio enfermo son por lo general leves, aunque a
menudo, son causantes de ausentismo, lo que genera un alto costo para las empresas.
(Soberanes, 2011).
Según la Asociación para la Prevención de Accidentes, citado por Rubio (2004), “la evaluación
del riesgo consiste en un proceso de aplicación sistemática de métodos capaces de identificarlo,
valorarlo, actuar sobre él para controlarlo y hacer un seguimiento para poder priorizar la actuación
y la efectividad de los resultados de la misma” (p. 18).
El SEE ocurre cuando se produce una concentración de compuestos contaminantes causados por
la falta de regeneración del aire procedente del exterior. Entre estos síntomas se pueden
mencionar: irritación y resequedad de oídos, nariz y garganta, que a su vez, generan trastornos en
los sentidos del gusto y del olfato.
Las sociedades pasan por fases pre lógicas y supersticiosas en sus explicaciones de las causas
de los daños y las desgracias; por lo que, no es pequeño el camino recorrido cuando,
abandonados ya los atavismos y los fatalismos de todo tipo, se puede planear
preventiva. (Fernando, 2011).
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
la acción
17
Por los problemas antes expuestos, el objetivo de esta investigación se refiere a caracterizar el
síndrome del edificio enfermo en los bloques académicos de la Facultad de Ciencias de la
Ingeniería de la Universidad Tecnológica Equinoccial.
2. Materiales y Métodos
A continuación esbozamos los principales materiales y métodos que permitieron la realización de
esta investigación, basados en una concepción dialéctica materialista en cuanto a su historicidad,
multidimensionalidad y en su carácter sistémico. Por lo que podemos afirmar:
El diseño de esta investigación es no experimental porque se describen los hechos como son
observados en la práctica. De cohorte transversal porque se recopilan los datos e información
en un solo período de tiempo.
La entrevista, además de obtener una prueba añadida sobre la documentación previamente
analizada, corrobora su aplicación a través de los sujetos que la constituyen, en última instancia,
los receptores de las medidas preventivas en la empresa y que conocen su efectiva realización.
(Nieto Millán, 2005).
El gobierno de España a través del Ministerio de Empleo y Seguridad Social, el Instituto Nacional
de Seguridad
e Higiene del Trabajo (INSHT), generan notas técnicas de prevención con la
finalidad de dar una herramienta indispensable para todo prevencionista y, una de ellas es la
norma NTP 290 (Solé y Pérez, sf).
El INSHT, es el organismo de referencia nacional de España en materia de seguridad y salud en
el trabajo, que ejerce la Secretaría de la Comisión Nacional de Seguridad y Salud en el Trabajo y
actúa de centro de referencia nacional en relación con las instituciones de la Unión Europea
(Sánchez 2011).
Las pautas generales para la identificación del síndrome del edificio enfermo están en la NTP
290 y son:

En el edificio (su edad, los materiales empleados, las obras y/o remodelaciones
realizadas).

Los ocupantes (su número y distribución en el edificio).

Los materiales y equipos de trabajo (naturaleza y ubicación).

El sistema de climatización / ventilación.
Comprobación de Proposiciones
En esta parte de la investigación se estableció la comprobación de las proposiciones, a través de
las preguntas científicas, las cuales constituyeron la guía para resolver la problemática planteada.
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
18
1. ¿Cómo identificar las condiciones generales para determinar un edificio enfermo?
Para resolver esta interrogante se procedió a estudiar las teorías del síndrome del edificio
enfermo, teniendo como normativa a utilizar la NTP 290, donde se establecen las condiciones
generales para determinar un edificio enfermo según su cuestionario y parámetros para su
evaluación.
2. ¿Cómo realizar una descripción de ventilaciones, superficies interiores, materiales de
construcción y hermeticidad que permite el desarrollo del edificio enfermo?
El
cuestionario permite detectar a través de sus preguntas
el
SEE,
debido al
grado de
satisfacción de los usuarios de los edificios.
3. ¿Cómo evaluar por medio de check list la presencia del síndrome del edificio enfermo?
Se recogieron los criterios de los encuestados y posteriormente se llevaron a la escala de
evaluación de la norma, en la que si la prevalencia es mayor o igual a 0.20 o el 20%, se
establece que si hay el síndrome del edificio enfermo y así lo demostró está investigación, que hay
síndrome del edificio enfermo en los tres bloques estudiados.
4. ¿Cómo verificar los desencadenantes del síndrome del edificio enfermo tomando en cuenta la
calidad del aire, la cantidad y calidad de temperatura, humedad, iluminación y ruido?
Estableciendo los criterios con respecto a las áreas seleccionadas y teniendo en cuenta las
teorías estudiadas, se establecieron los desencadenantes por calidad del aire, debido a que nos
encontramos
en presencia de edificios muy cerrados y pueden causar enfermedades
respiratorias, por lo tanto la temperatura no es la ideal y se experimentan cambios dentro del
edificio.
5. ¿Cómo identificar las condiciones generales para determinar un edificio enfermo?
Para resolver esta interrogante se procedió a estudiar la teoría del síndrome del edificio enfermo,
desde su surgimiento, antecedentes, principales teorías, modelo, normas internacionales y,
partiendo de esto se estableció el estado del arte del objeto de estudio, teniendo como normativa
a la NTP 290, donde se establecen las condiciones generales para determinar un edificio enfermo
según su cuestionario y parámetros para su evaluación.
6. ¿Cómo describir la ventilación, superficies interiores, materiales de construcción y hermeticidad
que permite el desarrollo del edificio enfermo?
Para resolver esta interrogante se utilizó la norma NTP 290, en la que dentro de sus interrogantes
están comprendidos los aspectos que se plantean en la pregunta y, a través del cuestionario se
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
19
preguntó a los trabajadores de los bloques en cuestión, sus criterios con respecto a la ventilación
y las condiciones en las que se encuentran.
7. ¿Cómo evaluar por medio de check list la presencia del síndrome del edificio enfermo?
Se recogieron los criterios de los encuestados y se llevaron a la escala de evaluación de la norma,
donde si la prevalencia es mayor o igual a 0.20 o el 20%, se establece que si hay Síndrome del
Edificio Enfermo y así lo demostró está investigación en los tres bloques estudiados.
8. ¿Cómo verificar los desencadenantes del síndrome del edificio enfermo tomando en cuenta la
calidad del aire, la cantidad y calidad de temperatura, humedad, iluminación y ruido?
Estableciendo los criterios con respecto a las áreas seleccionadas y teniendo en cuenta las
teorías estudiadas, se comprobó los desencadenantes por: calidad del aire, debido a que nos
encontramos
en presencia de edificios muy cerrados y pueden causar enfermedades
respiratorias, por lo tanto la temperatura no es la ideal y se experimentan cambios desde dentro
del edificio.
El fin de la investigación una vez determinadas las causas, es implantar las medidas que las
corrigen, comprobar su eficacia y mantenerlas (Azcuénaga, 2009).
3. Resultados
Los resultados se presentan en las tablas donde están identificados los bloques y
la
caracterización de los mismos en base a la encuesta realizada. El procedimiento adoptado
fue el de la norma NTP 290, que se basa en la prevalencia de los resultados consultados y
los límites para determinar si un edificio presenta SEE.
El SEE presentó los siguientes resultados:
La Tabla 1 y la Tabla 2, presentan las consecuencias y el resumen de la investigación de
los tres bloques, respecto a la sintomatología de las edificaciones, donde se muestran los
resultados en porcentajes de iluminación, ruido, vibraciones, ambiente térmico/humedad y
ventilación.
Tabla 1. Sintomatología en edificación.
Sintomas Específicos Edificio
Iluminación
Ruido
Vibraciones
Ambiente Térmico/Humedad
Ventilación
Edificio B Total
Afectados
Cumple
14% No cumple
60% Cumple
0 No cumple
30% Cumple
19% No cumple
Edificio G Total
Afectados
Cumple
25% Cumple
40% Cumple
0 No cumple
47% Cumple
63% Cumple
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
Edificio
Biblioteca Total
Afectados
Cumple
9% No cumple
30% Cumple
0 No cumple
31% Cumple
19% No cumple
20
Tabla 2. Resumen total de la investigación - sintomatología en edificación.
Afectación por Edificio
Edificio B Total Afectados
Edificio G Total Afectados
Edificio Biblioteca Total Afectados
Porcentaje
Diagnóstico
60% SEE Confirmado
63% SEE Confirmado
31% SEE Confirmado
En la Tabla 3 y Figura 1, se muestra el resultado de confort que presenta el puesto de trabajo al
estar junto a una ventana, obteniendo como resultado que los tres edificios en estudio tienen
disconfort en determinadas áreas de trabajo, activándose el indicador del SEE. La molestia de no
tener luz natural y la satisfacción de zonas de calor natural producido por los rayos solares,
inducen a los trabajadores a salir a lugares de mayor temperatura en determinados momentos
de su labor.
Tabla 3. Sitio donde labora.
Resultados de los bloques B, G, Biblioteca – tutores distancia, del sitio de trabajo a una ventana
PREVALENCIA (p)
NTP p=0.2
NTP 290
PREVALENCIA
CALCULADA NTP p
EL RITMO DEL TRABAJO:
OBLIGA A TRABAJAR
DEMASIADO DE PRISA
ES NORMAL
SE PODRÍAN
HACER
MAS COSAS
31
34
3
68
7
6
2
15
0.47
0.2 EXISTE SEE
6
11
0
17
0.35
0.2 EXISTE SEE
18
17
1
36
0.50
0.2 EXISTE SEE
TOTAL
BLOQUE B
BLOQUE G
BLOQUE BIBLIOTECA / TUTORES
puesto de trabajo a
menos de 5 m de
distancia de la ventana
en el Bloque B
puesto de trabajo
a menos de 5 m
de distancia de la
ventana en el
Bloque G
SEE
1
puesto de trabajo a menos
de 5 m de distancia de la
ventana en el Bloque
Biblioteca- Tutores
10
15
5
10
0
SI
20
11
7
5
NO
14
20
0
SI
0
SI
NO
NO
Figura 1. Ubicación de sitio de trabajo con respecto a la ventana en los edificios
De la matriz de resultados (Tabla 4 y Figura 2), se puede obtener que en los tres edificios se
activa el indicador del SEE, esto significa que la prevalencia de acuerdo a la NTP 290, detecta que
el parámetro supera lo permisible y en consecuencia se presume que los edificios
síntomas del edificio enfermo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
tienen
21
En el Bloque B, las conversaciones en los ambientes de trabajo son lo que más incomodan a los
trabajadores, porque su trabajo requiere de concentración. También los equipos de oficina son
una molestia cuando están dañados o deteriorados, porque producen ruido. En el bloque G, la
presencia de los equipos de laboratorio son perjudiciales en esas áreas de trabajo, en el de
Bibliotecas y tutorías se escucha un ruido producido desde el exterior, a causa de los estudiantes
ingresando a la biblioteca y en especial la cercanía del bloque al patio de mantenimiento de la
empresa de basura del Distrito Metropolitano de Quito.
Tabla 4. Resultados de los bloques B, G, Biblioteca –Tutores: ruido
TOTAL
BLOQUE B
BLOQUE G
BLOQUE BIBLIOTECA / TUTORES
la calle,
conversaciones
el exterior
otros
no hay
(especificar) ruido
1
2
3
4
5
6
8
1
3
4
23
5
9
9
11
0
2
9
28
10
3
15
7
1
4
2
9
2
3
4
RUIDO EN EL BLOQUE B
86
19
24
43
1
2
3
4
5
6
0.05
0.13
0.09
0.26
0.38
0.21
0.00
0.08
0.21
0.53
0.13
0.35
0.05
0.17
0.05
0.11
0.13
0.09
RUIDO EN EL BLOQUE G
100%
60%
40%
5
0
0
1
2
15
3 9 2 3 4 3
20%
0%
0.2 EXISTE SEE
0.2 EXISTE SEE
0.2 EXISTE SEE
15
10
5
0
9 9
4
2 4
Del sistema de…
equipos de…
la calle,…
conversaciones
otros (especificar)
no hay ruido
5
SEE
RUIDO EN EL BLOQUE
DE BIBLIOTECAS /
TUTORES
80%
10
10
1
PREVALENCIA (p)
NTP p=0.2
Del sistema de equipos de
ventilación oficina
NTP 290
PREVALENCIA CALCULADA (p)
Hay ruido que procede de:
Figura 2. Procedencia del ruido en los edificios
El resultado de la investigación respecto a la temperatura (Tabla 5 y Figura 3), determinó que
son bajas, especialmente en las horas pico, por el tipo de materiales empleados en la
construcción y en
acabados, los cuales colaboran para que la temperatura baje en los tres
bloques de la investigación. El indicador se activa en el bloque de bibliotecas, con el problema
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
22
del calor, por ser un sitio donde se concentran los estudiantes a las consultas e investigación y
debido a que el sistema de aire acondicionado no funciona.
Tabla 5. Resultados de los Bloques B, G, Biblioteca – Tutores: temperatura/humedad
23
5
8
10
2
1
0
1
7
5
10
5
0
Figura 3.
NO HAY…
0
OTROS…
2
DEMASIADA…
DEMASIADA…
1
DEMASIADO FRIO
DEMASIADO CALOR
2
0
0
0
0
TEMPERATURA /
HUMEDAD BLOQUE
G
TEMPERATURA/ HUMEDAD
BLOQUE B
8
6
4
2
0
3
2
0
1
8
2
29
7
7
15
73
17 0.12 0.29 0.06 0.12 0.00
17 0.12 0.47 0.00 0.00 0.00
39 0.31 0.26 0.03 0.03 0.00
PREVALENCIA (p)
ntp p=0.2
NO HAY
PROBLEMAS
SEE
0.2 EXISTE SEE
0.2 EXISTE SEE
0.2 EXISTE SEE
TEMPERATURA /
HUMEDAD BLOQUE
BIBLIOTECA - TUTORES
7
20
000
15
1210
110
0
OTROS…
16
2
2
12
OTROS
DEMASIA…
TOTAL
BLOQUE B
BLOQUE G
BLOQUE BIBLIOTECA / TUTORES
DEMASIADA
SEQUEDAD
DEMASIA…
DEMASIADO
DEMASIADA
DEMASIADO FRIO
CALOR
HUMEDAD
NTP 290
PREVALENCIA
CALCULADA (p)
LA TEMPERATURA/ HUMEDAD PRODUCE:
Caracteristicas de temperatura/humedad en los edificios
4. Discusión
El estudio permitió caracterizar el síndrome del edificio enfermo (SEE) en las tres construcciones
de la Facultad de Ciencias de la Ingeniería (Bloque B, Bloque G y Biblioteca- Sala de tutores), con
la herramienta
utilizada por la
NTP 290, que se
basa en la prevalencia en función del
cuestionario diseñado para el efecto.
El 77% de los ocupantes de los 3 bloques se encuentran en el rango de mayores de 30 años. El
63% es de género masculino y el 37% de género femenino.
En las tres edificaciones se evidenció la presencia del SEE por diferentes causas. Las
características de cada bloque por su funcionabilidad dieron como resultado diferentes factores
de prevalencia significativa; en el bloque B, la adaptación de nuevos diseños y remodelaciones
afectaron el confort, la iluminación, el ruido producido por los visitantes en las oficinas, etc.
En el bloque G, se pudo detectar que no fue diseñado para tantos laboratorios y se readecuó,
afectando la ventilación, iluminación y temperatura.
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
23
El bloque de Biblioteca, es un galpón que se adecuó para el funcionamiento de la biblioteca y sala
de tutores, con el gran problema de olores producidos en el exterior por la presencia del taller de
los carros de la basura del Distrito Metropolitano de Quito.
De la matriz de resultados se concluyó que en los tres edificios se activa el indicador del SEE,
esto significa que la prevalencia de acuerdo a la NTP 290, detecta que el parámetro supera lo
permisible y en consecuencia se presume que los edificios tienen síntomas del edificio enfermo.
En el edificio B, las conversaciones en los ambientes de trabajo son las que más molestan a los
trabajadores porque su actividad requiere de concentración, también los equipos de oficina son
incómodos cuando están dañados o deteriorados ya que generan ruido.
En el Bloque G, los equipos de laboratorios, talleres, planta de alimentos son los que causan el
SEE.
En el Bloque de Bibliotecas y Tutorías se presenta un ruido que proviene del exterior, que es de
los estudiantes ingresando a la biblioteca y en especial la cercanía del bloque al patio de
mantenimiento de la empresa de basura del Distrito Metropolitano.
5. Conclusiones y recomendaciones
Por medio de la utilización del método de la NTP 290 se pudo establecer que los 3 edificios
padecen del SEE.
Los resultados obtenidos en las encuestas indicaron una importante presencia de prevalencias
que activaron los indicadores del SEE.
Las adecuaciones no planificadas producen espacios físicos, que por sus características,
producen el síndrome del edificio enfermo.
Los edificios con poco mantenimiento, se deterioran, provocando daños en los equipos de
ventilación y esto desencadena factores que permiten la presencia del SEE.
Los materiales utilizados en acabados son otro factor que incomoda a los ocupantes del edificio,
dando como consecuencia, malestares que se presentan con alergias, resfriados, dolores de
cabeza y que desaparecen una vez que abandonan los edificios.
El
estudio realizado puede servir como el principio de otras investigaciones para llegar a
minimizar el SEE.
Se recomienda que en las futuras construcciones y adecuaciones prevalezca la planificación,
porque los cambios de diseño han provocado sin duda la aparición del SEE.
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
24
El bloque B, presenta el agrupamiento de áreas sin ventanas y con permanente luz artificial, que
por el espacio limitado que disponen, no permiten el desenvolvimiento
de las tareas con
normalidad, teniendo complicaciones con el olor, temperatura y ventilación.
El bloque G, es el que presenta problemas de olores y ventilación; se recomienda la reubicación
en otro bloque, por lo menos el 50 % de los laboratorios o mejorar el sistema de ventilación.
El bloque de Bibliotecas y la sala de Tutores, deben ser reubicados fuera del radio de olor y con
una infraestructura diseñada para el efecto.
El tipo de materiales usados en el área administrativa debe adecuarse con materiales térmicos.
Bibliografía
Azcuénaga Lizana, L. (2009). Manual práctico para la investigación de accidentes e incidentes
laborales (3.a ed.). Madrid: FC Editorial.
Berenguer Subils, (2012). Síndrome del edificio enfermo. Madrid: FundaciónMapfre
Fernando Pablo, J. et al. (2011). Manual de seguridad en el trabajo (2.a ed.). Madrid: Fundación
MAPFRE.
Nieto Millán, J. et al. (2005). Manual de coordinación de seguridad y salud en obras de
construcción. Madrid: Ecoiuris.
Rodríguez Hernández, L. y Alonzo Salomón, J. (2004). Efecto de los factores ambientales,
laborales y psicosociales, en el síndrome del edificio enfermo. Ingeniería, 2(8), pp. 1-8.
Rubio Romero, J. C. (2004). Métodos de evaluación de riesgos laborales. Madrid: Ediciones Díaz
de Santos.
Sánchez Rivero, J., Palomino Márquez, T., González Barriga, J. y Tejada Montesinos, J. (2011). El
coordinador de seguridad y salud (3.a ed.). Madrid: FC Editorial.
Soberanes
Collado,
Ma.
(2011).
Síndrome
del
edificio
enfermo.
Recuperado
de
https://esdaiposgrados.wordpress.com/page/4/?app-download=nokia.pdf
Solé Gómez, Ma. D. y Pérez Nicolás, J. (s.f.). NTP 290: El síndrome del edificio enfermo:
cuestionario para su detección. Recuperado de http://www.insht.es/inshtweb/contenidos
/documentacion/fichastecnicas/ntp/ficheros/201a300/ntp_290.pdf
Wriu
Valenzuela,
P.
(2007).
Síndrome
del
edificio
enfermo.
http://www.ergocupacional.com/4910/58976.html
Enfoque UTE, V.6-N.2, Jun.2015, pp.15 - 24
Recuperado
de
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/04/16
Aceptado (Accepted): 2015/05/29
CC BY-NC-ND 3.0
Predicción de variables operacionales en el proceso de
Producción de Crudos por Segregación Gravitacional Asistida
por Vapor (SAGD)
(Prediction of operational variables involved in the Production
Process of Crude Oil by Steam Assisted Gravity Drainage
(SAGD) )
David Lowy1, Geovanna Garrido1, Vinicio Melo1
Resumen:
Este trabajo presenta las variables de yacimiento y operacionales que influyen en la
implementación del proceso de Segregación Gravitacional Asistida por Vapor (SAGD) para la
Producción de Crudos Pesados y Extra-pesados. Este proceso consiste en la perforación de
dos pozos horizontales paralelos, uno por encima del otro, donde el pozo superior es usado
para inyectar vapor y el pozo inferior es usado como productor. La eficiencia del proceso se ve
altamente afectada por los parámetros del yacimiento y por los parámetros operacionales
(espaciamiento vertical de los pozos, presión de inyección, período de precalentamiento, entre
otros). Además, se determinó de manera teórica la predicción de la tasa máxima de extracción
de petróleo, mediante un ejemplo aplicativo utilizando datos reales que se disponen
actualmente del Campo Pungarayacu - Bloque 20, a nivel de yacimiento.
Palabras clave: Segregación Gravitacional Asistida por Vapor (SAGD); cámara de vapor;
crudos pesados y extra-pesados; tasa máxima de extracción; vapor de agua.
Abstract:
This paper presents the oil deposit and operational variables that influence the implementation
of the Steam Assisted Gravity Drainage (SAGD) process for the Production of Heavy and Extraheavy Crude Oil. This process consists of drilling two parallel horizontal wells, one above the
other, where the upper well is used for steam injection and the lower well is used for production.
The efficiency of the process is greatly affected by the deposit and operating parameters
(vertical spacing of wells, injection pressure, preheating period, among others). Furthermore,
the prediction of the maximum rate of oil extraction was determined using an example with
currently available real data of Block 20 of the Pungarayacu Field.
Keywords: Steam Assisted Gravity Drainage (SAGD); steam chamber; heavy and extra-heavy
crude oil; maximum rate of extraction; steam water.
1. Introducción
En la actualidad, la cantidad de descubrimientos de acumulaciones convencionales de petróleo se
están haciendo cada vez menores, por tal razón la atención de la industria petrolera en muchos
lugares del mundo se está desplazando hacia la explotación de petróleo pesado (10°API –
22.3°API), ya que junto con el petróleo extra-pesado (<10°API) y el bitumen conforman
aproximadamente un 70% de los recursos de petróleo totales del mundo. Las acumulaciones de
1
Universidad Tecnológica Equinoccial, Quito – Ecuador ({lada38656, grge96059, vinicio.melo }@ute.edu.ec)
26
crudos pesados y extra-pesados han adquirido bastante importancia en las últimas décadas, ya
que las compañías operadoras de petróleo han tenido que acudir a la explotación de yacimientos
no convencionales de petróleo, para completar la producción que se demanda mundialmente.
El petróleo pesado promete desempeñar un rol muy importante en el futuro de la industria
petrolera y muchos países están tendiendo a incrementar su producción, revisar las estimaciones
de reservas, invertir en infraestructura y comprobar nuevas tecnologías debido a que estas
acumulaciones requieren el uso de tecnologías especiales de explotación, de modo de hacerlas
económicamente rentables. Entre estas nuevas tecnologías se encuentra el proceso de
Segregación Gravitacional Asistida por Vapor (SAGD, sus siglas en Inglés: Steam Assisted
Gravity Drainage).
El presente trabajo resulta de fundamental importancia en el área de la Ingeniería de Yacimientos
y en los métodos de recuperación térmica de petróleo; de igual manera, implica un aporte técnico
al tema de los parámetros de yacimiento y operacionales que afectan en mayor medida al éxito y
rendimiento de un proceso SAGD.
Además, se determinó teóricamente una predicción de la tasa máxima de extracción que se
alcanza en un proceso SAGD de crudos pesados y extra-pesados, utilizando datos del Campo
Pungarayacu (Bloque 20), a nivel de yacimiento.
El Campo Pungarayacu está localizado en la provincia de Napo, en el flanco Este de la Cordillera
Oriental. El material útil que se halla conformando el yacimiento es la arenisca bituminosa de la
Formación Hollín que se presenta en Hollín Superior, Medio e Inferior. El yacimiento se encuentra
en la Formación Hollín, a profundidades que van de 0 a 700 metros desde la superficie, variando
de Norte a Sureste con una relación directa entre la topografía, y el espesor de la sobrecarga
destacándose en este reservorio tres cuerpos de areniscas.
Las arenas de la Formación Hollín Inferior constituyen el cuerpo más importante del reservorio,
con un espesor que varía entre 23 y 57 metros. Según información de la Secretaría Nacional de
Hidrocarburos del 2008, esta arenisca es de color gris claro, grano fino a medio, forma subangular, de selección regular a buena, porosidad igual a 22.4%, saturación de agua de 45%, entre
otras características litológicas y petrofísicas.
Las arenas del miembro medio de la formación están separadas del miembro inferior por una capa
impermeable de limolitas y arcillolitas, su espesor varía de 21 a 42 metros, con cambios de
permeabilidad y porosidad, tanto en sentido vertical como en sentido horizontal. En la Formación
Hollín Superior las arenas están separadas en su parte inferior por una capa de lutitas y en la
parte superior por calizas o lutitas calcáreas pertenecientes a la Formación Napo, el espesor de
arena varía de 3 a 12 metros.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
27
Dentro de los estudios realizados al yacimiento, se ha determinado sus reservas técnicas
existentes, en base a los datos recopilados para saber cuán posible será la producción de este
campo, ya que se trata de crudo pesado.
Según información presentada por la empresa IVANHOE 2 en junio de 2008, el Campo
Pungarayacu contendría 4.500 millones de barriles in situ, con un factor de recobro utilizando
nuevas tecnologías entre el 35% al 45% y con una recuperación adicional aproximada del 14% del
petróleo original en sitio.
Los valores para la descripción físico - química del petróleo del Campo Pungarayacu, fueron
tomados de análisis realizados a muestras recogidas del talud norte de la carretera Hollín-LoretoCoca, cerca del kilómetro 3.5 en el margen oriental del río Chontayacu. Estos valores se los
presenta en las Tablas 1 y 2.
Tabla 1. Resultados de análisis de muestra de petróleo aflorante (petróleo en superficie).
Propiedad y unidad
Valores
Viscosidad (m.Pa.s) a 40°C
500000
Viscosidad (m.Pa.s) a 60°C
144000
Viscosidad (m.Pa.s) a 88°C
7270
°API
6.6
3
Densidad (g/cm ) a 50°C
Contenido de azufre (% en
1.002
3.4
peso)
Petróleo residual
69.1
Fuente. (Secretaría Nacional de Hidrocarburos, 2008).
2. Proceso SAGD
Fundamentación del proceso SAGD
El Proceso de Segregación Gravitacional Asistida por Vapor es un método sistemático de
inyección continua de vapor, que permite incrementar el recobro de petróleo en yacimientos de
crudos pesados y extra-pesados. El arreglo de los pozos, consiste en dos pozos horizontales
paralelos perforados cerca de la base del yacimiento, de los cuales uno es el inyector de vapor y
está ubicado encima de un pozo productor (ver Figura 1). Su principal mecanismo de empuje es
causado por la fuerza de gravedad, la cual produce el movimiento del crudo hacia un pozo
productor.
2
Informe del estudio de impacto ambiental para el desarrollo de la fase de prospección geofísica del Bloque
20, IVANHOE Energy Ecuador Inc.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
28
Ambos pozos deben estar alineados horizontalmente y verticalmente separados por una corta
distancia. Antes de iniciar el proceso, los pozos deben ser calentados previamente mediante la
circulación de vapor a lo largo de la longitud total de los pozos (a través de la tubería de
producción), con la finalidad de crear una comunicación térmica entre los mismos.
Tabla 2. Características Físico-Químicas del Campo Pungarayacu.
Características
Unidad
Resultado
3
Peso específico a 15.5°C
g/cm
Densidad
°API
5.5
Densidad Relativa
60/60
1.0328
Viscosidad a 38.7°C
SSF
24163
Viscosidad a 50°C
SSF
11474
Viscosidad a 98.7°C
SSF
900
Viscosidad a 134°C
SSF
172
Punto de Inflamación
°C
170.7
Punto de Combustión
°C
179.3
kcal/kg
9887.4
Contenido de Aromáticos
%
40.79
Contenido de Naftenos
%
32.50
Contenido de Parafinas
%
26.71
% en peso
3.29
Vanadio
ppm
38.30
Níquel
ppm
243.20
Sodio
ppm
92.30
Hierro
ppm
156.60
Calcio
ppm
43.10
Potasio
ppm
59.00
Magnesio
ppm
41.40
Contenido de Petróleo
% en peso
10
Contenido de Sedimentos
% en peso
61.0
% en volumen
0.23
l/10 mm
45
Punto de Ablandamiento
°C
42.2
Ductibilidad
cm
35
% en peso
88.3
KUOP
10.67
Calor Específico
Contenido de Azufre
Humedad
Penetración
Solubilidad en CC14
Factor de Caracterización
1.07
Fuente. (Secretaría Nacional de Hidrocarburos, 2008).
Posteriormente, se adiciona la inyección continua de vapor por el anular del pozo inyector, sobre
el cual se forma una zona de vapor saturado denominada “Cámara de Vapor”. Durante el
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
29
desarrollo de la cámara de vapor dentro del yacimiento, se presentan tres etapas o períodos, que
se originan sucesivamente, a medida que ésta se forma. Estos períodos son:
Figura 1. Esquema Proceso SAGD con pozos horizontales.
Fuente. (Alvarado, 2002).

Período de Crecimiento Vertical de la Cámara.
Es conocida como período de ascenso de la cámara o período de incremento de potencial, y
ocurre desde el momento en que comienza la inyección del vapor en el yacimiento hasta que éste
llega al tope del mismo. En esta etapa, la tasa de producción aumenta progresivamente.

Período de Expansión Lateral.
Se caracteriza por una tasa de producción que se mantiene estable. Esta etapa se inicia desde el
momento en que la cámara llega al tope del yacimiento y comienza a expandirse solamente hacia
los lados, hasta abarcar la longitud horizontal del pozo productor.

Período de Declinación.
Es la última fase en la cual la tasa de producción comienza a disminuir. La etapa se inicia desde el
momento en que la cámara de vapor llega al final de la longitud horizontal del pozo productor y
finaliza cuando la altura del volumen de crudo entre los pozos (ubicada de los límites del área de
drenaje de la cámara) comienza a decrecer con lo que disminuye igualmente la tasa de drenaje,
hasta convertirse en un proceso no económico. Al llegar a este punto se concluye que el proyecto
ha finalizado.
La presión en la cámara de vapor normalmente se mantiene constante durante todo el proceso, y
se encuentra rodeada de arena petrolífera fría. El vapor fluye a través de la arena dentro de la
cámara hasta alcanzar la interfase “Arena Petrolífera - Cámara de Vapor”, donde se condensa y el
calor liberado se transmite por conducción a la arena petrolífera fría.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
30
De esta manera, es calentado el petróleo que se encuentra cerca de la superficie de
condensación, permitiendo a su vez que tanto el petróleo como los condensados sean drenados
por gravedad hacia el pozo productor.
Durante este proceso, el petróleo se mueve en dirección contraria a la de avance de la cámara de
vapor. El petróleo y los condensados drenan hacia abajo y el vapor hacia arriba, ya que el vapor
tiende a subir, y tanto los condensados y el crudo caliente tienden a caer al fondo (por ser más
pesados). Por lo tanto, el flujo es causado por la fuerza de gravedad (Figura 2).
Figura 2. Cámara de vapor del Proceso SAGD.
Fuente. (Montes, 2012).
En general, el mecanismo del proceso SAGD, se puede resumir en cuatro pasos: el vapor se
condensa en la interfase; el petróleo y el condensado son drenados hacia el pozo productor; el
flujo es causado por la gravedad y crecimiento de la cámara de vapor hacia arriba y hacia los
lados.
La producción de los pozos se realiza mediante levantamiento natural de los fluidos. Debido a que
las temperaturas de operación son generalmente mayores a 200°C, para tales temperaturas no
existen sistemas de bombeo confiables que puedan manejar la cantidad de producción esperada.
Por consiguiente, el tipo de completación es totalmente atípica y única bajo este tipo de
tecnología. Adicionalmente de utilizar el mecanismo de producción de levantamiento de flujo
natural con vapor, este puede ser apoyado, mediante levantamiento con inyección de gas.
Criterios de diseño del proceso SAGD
Los criterios de selección sugieren las bases para llevar a cabo un proyecto rentable bajo la
tecnología SAGD, los cuales están basados en resultados de simulaciones. Analizar y evaluar la
influencia de la arquitectura geológica y las características de yacimientos, determina la
factibilidad del proceso en yacimientos de crudos pesados y extrapesados.
La mayoría de las características geológicas de la formación definen la forma y el tamaño de la
cámara de vapor, así como la viabilidad del proceso. Dentro de los aspectos geológicos que
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
31
influyen, constan: espesor de la arena, capa impermeable, acuíferos, capas de gas,
heterogeneidades de la formación y el efecto del buzamiento de la formación.
En cuanto, a las consideraciones del yacimiento, se requiere de una alta relación crudo – vapor
(SOR), debido a que toda la región del yacimiento depletado requiere ser calentado a la
temperatura del vapor. Según esto, es necesario contar con buenas propiedades petrofísicas,
tales como alta porosidad (Φ), alta permeabilidad (k) y alta saturación de crudo (So). Las
formaciones con baja viscosidad (μ), están asociadas con yacimientos de mayores profundidades,
los cuales no son atractivos para el proceso SAGD.
Cualquier yacimiento en particular, debe ser analizado y simulado con sus características
originales, a fin de asegurar la viabilidad del proceso, sin embargo, los factores de diseño
deseables para un proceso SAGD son:

Arenas continuas con espesores mayores a 15 metros (49 pies) para viscosidades de
hasta 10000 cp. Para crudos menos viscosos se pueden aceptar espesores de hasta 10
metros (33 pies).

Permeabilidad mayor a 1 Darcy.

Alta saturación de crudo (mayor al 80%).

Alta porosidad (mayor al 30%).

Gravedad API menor de 20°.

Presión actual del yacimiento menor de 1000 psi.

Profundidad menor a 1372 metros (4500 pies).

Evitar la presencia de capas de gas y acuíferos (tanto en el tope como la base del
yacimiento).

No deben existir barreras lutíticas de gran continuidad o extensión y poco espesor
(menores a 2 metros).

Presencia de una capa impermeable en el tope de la formación.

Contenido de arcillas hinchables dentro de la formación menor a 10%.

Evitar la presencia de fallas y fracturas.
Además, existen dos formas generales de configuración de los pozos para desarrollar el proceso
SAGD (ver Figura 3) :

Pozo inyector horizontal y pozo horizontal productor, los pozos deben estar configurados
de forma paralela (inyector ubicado encima del productor) y alineados en la misma
dirección.

Pozo inyector vertical y pozo horizontal productor, donde su ejecución es más económica y
sencilla de construir.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
32
A
B
Figura 3. A. Pozo inyector horizontal posicionado encima de un pozo horizontal productor.
B. Pozo inyector vertical posicionado encima de un pozo horizontal productor.
Fuente. (IVANHOE, 2013).
Factores que determinan la efectividad del proceso SAGD
Existen diversos aspectos a considerar para un correcto y óptimo desarrollo de la tecnología
SAGD, entre estos tenemos:

Distancia de separación de pozos
La separación vertical como la alineación entre los pozos, debe ser lo más precisa posible. Los
pozos son espaciados entre 4 a 10 metros de separación, distancia típica (a nivel mundial) para
crudos pesados y está basada en simulaciones. Además, esta variable depende de la viscosidad
del crudo; para crudos muy viscosos, el pozo inyector es ubicado generalmente a 5 metros de
separación del pozo productor. Si el crudo del yacimiento es menos viscoso, el pozo inyector
puede ser ubicado en una sección superior del yacimiento, permitiendo una mayor separación
entre ambos pozos.

Espaciamiento de parejas de pozos
Para un mejor recobro del yacimiento y eficiencia del proceso, siempre es recomendable, iniciar
un proyecto SAGD con al menos dos pares de pozos, los cuales deben estar espaciados a cierta
distancia. El espaciamiento entre las parejas de pozos oscila entre 100 a 150 metros; sin
embargo, el espaciamiento óptimo dependerá de los resultados de simulaciones. Mientras mayor
sea el espaciamiento entre las parejas de pozos, resultará en mayores tasas de producción
acumuladas por cada pareja de pozos.

Instrumentación de la completación
La instrumentación en la completación de los pozos, es necesaria para monitorear y evaluar el
crecimiento progresivo de la cámara de vapor a fin de optimizar su desarrollo durante la vida
operativa de la pareja de pozos y lograr un drenaje eficiente del yacimiento. Puede ser
supervisado con la instalación de sensores de presión (capilares), sensores de temperatura
(termocuplas) y mediante sistemas de distribución de temperaturas de fibra óptica instalados en el
fondo de los pozos. En cuanto al control del proceso, se puede inferir de los patrones observados
en el comportamiento del mismo, a través de las mediciones directas del fondo del pozo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
33
Las mediciones de presión y temperatura pueden indicar una referencia de la evolución del
proceso de transferencia de calor en el yacimiento y del grado de desplazamiento de vapor a lo
largo de la completación hacia el yacimiento. Las medidas de temperatura permiten detectar
ciertas condiciones, tales como, el predominio del vapor, zonas ladronas de vapor, zonas o capas
con alta permeabilidad, los cuales proporcionan información para estudios posteriores.
Uno de los factores claves del proceso SAGD, es la condición o grado de subenfriamiento, el cual
debe ser controlado para evitar la conificación del vapor y contribuir a reducir la disipación del
calor. La condición de subenfriamiento es una función de la presión y temperatura del pozo
productor, que influyen en el mantenimiento y desarrollo de la cámara de vapor.
En cuanto a los parámetros operacionales, los que resultan más influyentes en el proceso son: la
tasa de inyección de vapor, la duración del período de precalentamiento y la calidad del vapor
inyectado.

Inyección de vapor
El procedimiento para la inyección de vapor se inicia con la circulación de vapor dentro de ambos
pozos, inyector y productor, para calentar el crudo por conducción térmica, de forma de iniciar la
comunicación vertical entre ambos pozos.
La tasa de inyección de vapor es de vital importancia para el desarrollo de la cámara de vapor y
por ende, para el éxito del proceso SAGD. El desempeño de la cámara y de la producción del
pozo será mejor mientras la relación o tasa acumulada “liquido (crudo + agua)/vapor”, sea más
alta.
La calidad del vapor inyectado influye directamente en la cantidad de energía transmitida al
yacimiento. De esta forma, es necesario que el vapor inyectado llegue al yacimiento con la calidad
máxima que las condiciones operacionales permitan. La cantidad de calor que el vapor de agua es
capaz de transmitir al yacimiento va a variar en función de su calidad: a mayor calidad mayor
entalpía, y por ende, mayor calor inyectado al yacimiento.

Período de precalentamiento
Es necesario que se lleve a cabo el período de calentamiento del yacimiento, 1 a 2 meses, antes
del inicio de las operaciones de inyección y producción, con el fin de calentar el crudo y aumentar
su movilidad inicial, puesto que este procedimiento es favorable en el rendimiento general del
proceso SAGD.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
34
Tasa máxima de producción de petróleo
La ecuación de la tasa máxima de producción de petróleo de un campo que está produciendo bajo
el proceso SAGD, preestablecida en forma teórica.
La tasa a la cual el crudo se drena durante el esparcimiento de la cámara de vapor, sin que se
produzca simultáneamente la producción de vapor en el pozo productor es:
1.3kgfDSo h
mn S
q = 2L
Esta ecuación ha sido llamada la ecuación del “drenaje lineal” o ecuación “Lindrain” 3.
El procedimiento de cálculo para determinar la tasa empírica máxima de producción de petróleo
para un campo determinado es:
a) Determinar la temperatura del vapor con el valor de la presión en la cámara de vapor. Esto se
puede hacer usando las tablas de vapor o, como los datos están en el sistema internacional de
unidades SI, podemos utilizar usando la correlación de Stanford-Moss que es la siguiente:
TS 
326.57
 273.15
9.8809  log PS  2.4223
b) Obtener la viscosidad cinemática en función de la temperatura usando la ecuación de Walther
aplicada a crudos de Canadá, Estados Unidos y Venezuela, modificada por Svrcek y Mehrotra
en 1988, donde sólo se requiere la viscosidad en un solo punto, en el cual se conozca también
la densidad.
La correlación es la siguiente:
loglog  0.7  m logT  273  b
Donde 𝑏 es una constante para un petróleo en particular y 𝑚 es igual a:
m  0.3249  0.4106b
Con los valores de 𝑏 y 𝑚 obtenidos, reemplazarlos en la siguiente ecuación a la temperatura
de saturación del vapor obtenida en el paso 1:
b  m log T  273 
  1010
3
 0.7
Para un desglose más detallado de la deducción de esta fórmula, remítase a Alvarado & Banzer (2002).
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
35
c) Calcular la siguiente integral definida para encontrar el valor de 𝑚 determinado en s/m2:
TS
1
dT

TR   T  T 
m S
R
Para esto, al integrando se lo grafica contra la temperatura hasta el valor de temperatura de
saturación del vapor 𝑇𝑠 .
El área bajo la curva de dicho gráfico es proporcional al flujo en ese rango de temperatura. Se
debe calcular el valor exacto del área bajo la curva para determinar el parámetro adimensional
m.
Se calcula la tasa máxima de producción para el proceso SAGD utilizando la ecuación
empírica denominada ecuación de drenaje lineal para los dos lados de la cámara, previamente
antes definida.
q = 2L
1.3kgfDSo h
mn S
El valor de L representa la longitud del pozo horizontal, que de acuerdo a experiencias de
campo y de simulación matemática en Canadá, utilizando crudos de similares características
petrofísicas, físicas y químicas del crudo del Campo Pungarayacu, se sugiere que la longitud
del pozo horizontal sea de 400 metros, y considerando que los pozos horizontales se ubiquen
lo más cerca posible a la base de la formación, para minimizar las pérdidas por crudo no
recuperable.
El área de drenaje se determina en el período de declinación de la cámara de vapor. Esta
etapa se inicia desde el momento en que la cámara de vapor llega al final de la longitud
horizontal del pozo productor, utilizándose el valor de 400 metros ya mencionado, y finaliza
cuando la altura del volumen de crudo entre los pozos (ubicada en los límites del área de
drenaje de la cámara, que de acuerdo a experiencias de campo como de simulación se ha
determinado que está entre 30 y 40 metros) comienza a decrecer, con lo que disminuye
igualmente la tasa de drenaje hasta convertirse en un proceso no económico. Por lo que el
área de drenaje se encuentra aproximadamente entre 12000 a 16000 m2.
Antes de emplear la ecuación propuesta, se debe determinar los valores de los parámetros
que intervienen en dicha ecuación y convertirlos a un sistema de unidades consistente.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
36
3. Resultados y Discusión
A continuación se presenta el procedimiento de cálculo para estimar la tasa máxima de
producción que se podría esperar para un pozo horizontal de 400 m, perforado en la base del
yacimiento, en un proyecto SAGD en el Campo Pungarayacu, cuyo petróleo tiene una viscosidad
cinemática de 127.7 cSt a 100°C, con una presión en la cámara de vapor de 1.9 MPa (275 lpca) y
con los siguientes parámetros mostrados en la Tabla 3:
Tabla 3. Datos del Campo Pungarayacu.
Variables
Valores
Unidades
Altura de cámara vapor h
30
metros
Saturación de petróleo So
0.75
fracción
Densidad petróleo a 100°C
940
kg/m
Petróleo residual Sor
0.15
fracción
Difusividad térmica 𝛼
0.05
𝑚2
día
Temperatura inicial 𝑇𝑅
14
°C
Permeabilidad K
1.2
Darcy
0.224
fracción
Porosidad 𝜙
3
Fuente. (Secretaría Nacional de Hidrocarburos, 2008)

Procedimiento de cálculo
a) Determinar la temperatura del vapor con el valor de la presión en la cámara de vapor que es
1.9 MPa (275 lpca), usando la correlación de Stanford-Moss:
TS 
326.57
 273.15
9.8809  log PS  2.4223
TS 
326.57
 273.15
9.8809  log1.9  2.4223
TS = 210 o C
b) Obtener la viscosidad cinemática en función de la temperatura, mediante la correlación de
Svrcek y Mehrotra:
loglog  0.7  m logT  273  b
Aplicando la correlación obtenemos para 100°C:
n=
m
= 127.7
r
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
37
loglog127.7  0.7  m log100  273  b
0.323986998 = 2.571708832m+ b
Donde 𝑏 es una constante para un petróleo en particular y 𝑚 es igual a:
m = 0.3249 -0.4106b
Reemplazando el valor de 𝑚 en la ecuación, obtenemos el valor de 𝑏:
(
)
0.323986998 = 2.571708832 0.3249 - 0.4106b + b
0.323986998=0.835548199-1.055943646 b+b
-0.511561201=-0.055943646b
b = 9.144223474
En la ecuación de 𝑚, se reemplaza el valor obtenido de 𝑏
m  0.3249  0.4106b
m = 0.3249-0.4106 (9.144223474)=-3.429718158
Con los valores de b y m obtenidos, reemplazarlos en la siguiente ecuación a la temperatura
de saturación del vapor obtenida en el paso 1:
b  m log T  273 
  1010
 0.7
9.14422347
4  3.42971815
8 log  210 273 
  1010
n
s@ 210o C
 0.7
= 6.74cSt
c) Se calcula la siguiente integral definida para encontrar el valor de 𝑚 determinado en s/m2:
TS
1
dT

TR   T  T 
m S
R
Para esto, al integrando se lo grafica contra la temperatura hasta el valor de temperatura de
saturación del vapor 𝑇𝑠 . La siguiente Figura 4 nos muestra este gráfico.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
38
Figura 4. Gráfico del Integrando vs. Temperatura.
Se ignora el área cercana a la temperatura inicial del reservorio 𝑇𝑅 . Con Excel, agregar la línea
de tendencia del gráfico para determinar la ecuación de la curva.
Una ecuación polinómica de cuarto grado es la que da un ajuste exacto de la curva (R2 = 1),
dicha ecuación es:
y  6 10 13 x 4  3 10 10 x 3  2 10 8 x 2  6 10 7 x  4 10 6
De esta ecuación, se tiene que determinar el valor exacto de su integral definida para el
intervalo entre 0°C a 210°C con respecto a la variable 𝑥, esto se hace para encontrar el área
bajo la curva de la ecuación. Esto se lo puede hacer automáticamente en una calculadora de
integrales:

210C
0C
 6 10
13

x 4  3 10 10 x 3  2 10 8 x 2  6 10 7 x  4 10 6 dx  0.047501538
Por lo tanto:
1
= 0.047501538
mn S
En el paso 2, se calculó previamente el valor de la viscosidad cinemática a 210°C y con ello
calcular el valor del parámetro 𝑚.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
39
1
= 0.047501538
m 6.7
( )
1= 0,3182603046m
m = 3,14208220804
d) Se calcula la tasa máxima de producción para el proceso SAGD.
q = 2L
1.3kgfDSo h
mn S
Antes de emplear la ecuación propuesta, se debe determinar los valores de los parámetros
que intervienen en dicha ecuación y convertirlos a un sistema de unidades consistente, en
este caso, se empleará el Sistema Internacional - SI.
La permeabilidad tiene que estar en m2. Entonces:
 0.9869 10 12 m 2 
0.4  4.74 10 13 m 2
k  1.3Darcy
1Darcy


NOTA: El valor de 0.4 es la permeabilidad relativa promedio estimada. La variable es la
permeabilidad efectiva para el flujo del petróleo
La difusividad térmica del yacimiento debe estar en m2/s, entonces:

0.05m 2
m2
 5.79 10 7
86400s
s
El diferencial de saturación es:
DSo = 0.75- 0.15 = 0.60
Como se determinó en el paso 1, el valor de la viscosidad cinemática a 210°C es 6.7 cSt, este
valor transformarlo a m2/s.
 10 6 m 2 s 
m2
  6.7 10 6
6.7cSt 
s
 1cSt 
Luego empleando la ecuación lineal de drenaje:
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
40
q  2400




1.3 4.74 10 13 9.81 5.79 10 7 0.2240.6030
3.1421 6.7 10 6
q  6.53 10 4


m 3  86400s 
m 3  6.29bl 

56
.
38




s  1día 
día  1m 3 
q = 354.62
bl
día
Aplicando el modelo matemático empírico propuesto por Roger Butler, se determina que de
acuerdo a las características petrofísicas y de yacimiento del Campo Pungarayacu, se
produciría una tasa de producción estimada de 354,62 barriles por día bajo el proceso SAGD
para un pozo de estas condiciones de reservorio, incluyendo espesor y longitud del mismo.
Por otra parte, respecto a las ventajas y desventajas esperadas en la zona posterior a la
aplicación del sistema SAGD, la teoría de Butler en la que se fundamenta el proceso, tiende a
producir tasas pesimistas, debido a:

Ignora el calor llevado al yacimiento por el agua condensada del vapor.

Ignora el hinchamiento de la zona de petróleo debido a la intrusión del agua condensada
del vapor y por la expansión térmica.

Debido a los efectos capilares, la interfase no es suave tal como lo supone la teoría y por
el contrario, es muy irregular a escala de poro. El agua tiende a llenar los poros pequeños
y mantener fuera al vapor, mientras que éste entra más fácilmente en los poros más
grandes, resultando en una extensión de la transferencia de calor y una mayor tasa de
calentamiento. Este efecto no es muy grande para SAGD pues en este proceso la
profundidad de la penetración del calor (o sea, el espesor de la capa de petróleo móvil) es
grande en comparación con el espesor de zona de transición vapor-líquido.

Estos efectos tienden a hacer que el área disponible para el flujo del petróleo sea mayor
que en la teoría.

Este método teórico da resultados conservadores respecto a la tasa real de producción
que se obtendría mediante el proceso SAGD, asegurando por tanto que la predicción no
sea demasiado optimista para los cálculos financieros de la empresa que en su momento
se haga cargo de la operación del Campo Pungarayacu.

Por otro lado, la teoría desprecia el aumento en viscosidad que ocurre a medida que parte
del agua condensada entra en el petróleo para formar emulsiones Agua/Petróleo,
particularmente cuando las cámaras de vapor se están elevando hacia el tope del
yacimiento.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
41

La profundidad de la penetración del calor es menor cuando el crudo es de viscosidad baja
y la temperatura del vapor, alta, o sea, cuando el petróleo es menos viscoso y drena más
rápidamente, produciendo un avance más rápido de la interfase.
4. Conclusiones y Recomendaciones
El presente trabajo plantea la necesidad de desarrollar una metodología eficiente que permita
determinar los factores de mayor influencia en el proceso SAGD y, a su vez, proporcionar una
forma de optimizar ciertos parámetros, con el fin de conseguir la exitosa implementación de éste
en un yacimiento; por ello de acuerdo a las características petrofísicas y de yacimiento del Campo
Pungarayacu, se calculó que el mismo tendría una tasa de producción de petróleo estimada de
354,62 barriles por día bajo el proceso SAGD, aplicando el modelo matemático empírico
propuesto por Roger Butler.
La zona del Campo Pungarayacu en la que se aplicaría el proceso SAGD es la formación Hollín
Inferior, por sus características petrofísicas y por su espesor que varía entre 23 y 57 metros.
Los parámetros de yacimiento de mayor impacto en la producción de petróleo durante el proceso
SAGD en los yacimientos de crudo pesado, en base a estudios realizados de simulación, son: el
espesor de la arena, la porosidad media del yacimiento, la temperatura inicial, la desviación
estándar de la porosidad, la relación entre la permeabilidad vertical y horizontal Kv/Kh y el grado
API del crudo.
El espesor de la arena, es el parámetro de yacimiento que resulta más influyente para el proceso,
con una contribución de 10% aproximadamente a la variabilidad del petróleo producido. De esta
forma, puede esperarse que a mayor espesor de la arena mayor sea la producción de petróleo en
el proceso SAGD.El segundo parámetro de yacimiento de mayor relevancia es la porosidad de la
roca reservorio, con una contribución del 9% aproximadamente a la variabilidad del petróleo
producido.
En cuanto a los parámetros operacionales, los más influyentes en el proceso son: la tasa de
inyección de vapor con una contribución a la variabilidad del petróleo producido de 16%; la
duración del período de precalentamiento con 3%; la calidad del vapor inyectado con el 5% y la
distancia vertical entre el pozo inyector y el pozo productor.
Además, este trabajo es de vital relevancia en las áreas de la Ingeniería de Yacimientos y en los
métodos de recuperación térmica de petróleo. También, constituye un aporte en la conformación
de una base de información que sería de utilidad para proyectos en el área, así como para
investigaciones que involucren esta temática.
En la actualidad la aplicabilidad del proceso SAGD a un determinado yacimiento de crudo pesado
o extra-pesado, así como los parámetros operacionales usados, son determinados generalmente
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
42
por criterios generados de las experiencias adquiridas en las operaciones de yacimientos similares
que han sido drenados por este método. De este modo, si se pretende lograr un rendimiento
satisfactorio, es necesario realizar a priori un proceso de selección de los parámetros
operacionales óptimos para dicho yacimiento.
Simbología
Símbolo
Definición - unidades
TS
Es la temperatura de saturación del vapor, [°C]
PS
Es la presión en la cámara de vapor, [MPa]
nS
m
b
1
mn s
q
Es la viscosidad cinemática del vapor, [m /s]
k
a
DSo
g
L
f
2
Es una constante adimensional
Es una constante adimensional
Es una expresión que define una integral definida para determinar el valor
adimensional de m
3
Es la tasa máxima de producción empírica bajo el proceso SAGD, [bl/día], [m /s]
2
Es la permeabilidad efectiva para el flujo de petróleo, [Darcy] , [m ]
2
Es la difusividad térmica, [m /s]
Es la saturación de petróleo remanente, saturación actual menos la saturación
residual DSo = Soi - Sor , [fracción]
2
Es la aceleración de la gravedad cuyo valor es 9.8 m/s
Es la longitud del pozo horizontal perforado en la base del yacimiento, [m]
Es la porosidad, [fracción]
h
Es el espesor total que es la distancia entre el pozo productor y la base del
yacimiento, [m]
So
Es la saturación de petróleo, [fracción]
Bibliografía
Alboudwarej y otros (2006). La importancia del petróleo pesado. Oilfield Review Schlumberger’s
technology journal, 38-40.
Alvarado, D., y Banzer, C. (2002). Recuperación Térmica de Petróleo. Caracas: Adafel Rincón
Mora.
Butler, R. (1991). Thermal Recovery of Oil and Bitumen. Alberta: Prentice Hall.
Chekhonin y colaboradores (2012). Cuando las rocas se calientan: Las propiedades térmicas de
las rocas yacimiento. Oilfield Review Schlumberger’s technology journal, 20.
Fernández, J. (2007). Simulación integrada subsuelo-superficie del proceso SAGD en un modelo
estocástico de yacimiento (Tesis de pregrado). Universidad Central de Venezuela. Caracas.
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
43
García, E. (2007). Optimización del Proceso SAGD en un modelo Conceptual de yacimientos
utilizando técnicas de Diseño Experimental (Tesis de pregrado). Universidad Central de
Venezuela.
Caracas.
Recuperado
http://saber.ucv.ve/jspui/bitstream/123456789/2697/1/Tomo.pdf
Enfoque UTE, V.6-N.2, Jun.2015, pp.25 - 43
de
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/05/04
Aceptado (Accepted): 2015/06/15
CC BY-NC-ND 3.0
Implementación de prácticas de laboratorio con costo
mínimo
(Implementation of laboratory practice with minimal cost)
Idalberto Tamayo Ávila1, Luis Geovanny Pazmiño Bravo2, Diego Fabián Valencia
Alvear3, Mayra Mariuxi Galván Paredes4, Marcos Antonio Batista Zaldivar5
Resumen:
En este trabajo se expone una iniciativa que consistió en implementar los montajes de 24
prácticas de laboratorio para las asignaturas de Física General, Física Aplicada, Calor y
Electromagnetismo; en la Universidad Tecnológica Equinoccial (sede Santo Domingo). Para
cumplir con el objetivo se realizaron tres tesis donde se concibieron las prácticas utilizando
equipamiento almacenado que no se usaba; sumando a esto el aporte personal de los
estudiantes se obtuvieron otros instrumentos para completar los montajes; cada práctica fue
puesta a punto y validada para el uso docente mediante los métodos de cálculo de errores y
regresión lineal. La culminación del trabajo significó un ahorro calculado en $16.369,57
comparado con el hecho de si se hubiesen comprado cada uno de los montajes de las
prácticas.
Palabras clave: laboratorio, habilidades experimentales, errores, validación, optimización.
Abstract:
In this work is reported an initiative to implement 24 assembly laboratories for General Physics,
Applied Physics and Heat and Electromagnetism, in the premises of the Universidad
Tecnológica Equinoccial (Santo Domingo, Ecuador). For this purpose three student memoires
where designed and performed with unused, stored equipment, plus some additional material
coming from students contribution. Each practice was set up and validated for teaching
purposes with the methods of calculation errors and linear regression. This work saved the
institution $16,369.57 compared with the cost of buying a commercial set for the laboratory.
Keywords: laboratory, experimental skills, errors, validation, optimization
1. Introducción
Las motivaciones para la realización de este trabajo estuvieron dadas en que la sede Santo
Domingo nunca contó con un laboratorio de Física; por otra parte se percibió en los estudiantes de
estas asignaturas la dificultad de interpretar conceptos físicos y aplicarlos; en otro orden de
cosas, existía la necesidad de reformar los programas analíticos de ciencias básicas hasta el nivel
que requiere la ingeniería, estando acorde con otras universidades nacionales e internacionales y
1
Universidad Tecnológica Equinoccial, Quito – Ecuador ([email protected]).
CELEC EP TRANSELECTRIC, Ecuador ([email protected]).
3
Universidad Tecnológica Equinoccial, Santo Domingo – Ecuador ([email protected]).
4
CNEL SANTO DOMINGO, Ecuador ([email protected]).
5
Unidad Educativa Virgilio Drouet, Ecuador ([email protected])
2
45
de esta manera hacer una contribución para elevar la calidad de los programas desarrollando
habilidades teóricas y experimentales (Agudelo, García, 2010).
Una práctica de laboratorio puede considerarse como una “pequeña investigación” donde los
estudiantes aplican el método científico. La ingeniería es por naturaleza cuantitativa y no puede
ser remplazada por palabras, por lo que deben adquirirse habilidades en el cálculo, medición,
experimentación, interpretación de resultados, métodos y formas de expresarlos desde los
primeros niveles de la carrera e incluso desde la enseñanza precedente. Por todo lo anterior la
enseñanza teórica tiene que ir acompañada de la práctica y solo puede materializarse en un
laboratorio real. (Flores, Caballero, Moreira, 2009).
Si los montajes para la realización de prácticas de laboratorio docentes se adquieren mediante la
compra directa a un proveedor pueden resultar costosos por su exclusividad ya que no son
fabricados en masa. Muchas veces se venden en kit
y no se ajustan completamente a los
intereses de un programa analítico de una asignatura específica.
Si las instituciones aprovechan las iniciativas de los docentes y estudiantes, estos montajes
pueden concebirse e implementarse usando equipamiento almacenado en los laboratorios de
institutos y universidades
que conjuntamente con la compra aislada de otros componentes
permite que la práctica montada se haga con un costo mínimo (Gil, 2015).
La experiencia que representa para un estudiante el hecho de poder concebir una práctica,
montarla, experimentar, comparar si los resultados son válidos, mejorarla hasta ponerla a punto;
contribuyen sin duda a su desarrollo profesional y puede ser el punto de partida para la innovación
cuando enfrenten experiencias similares de montajes en la industria o en la experimentación para
la investigación. En este sentido debe crearse un ambiente de aprendizaje donde los estudiantes
jueguen un rol más activo; en el que además de la realización de práctica tradicional siguiendo
pasos según una guía puedan tener la posibilidad de desarrollar la mayoría de las prácticas como
proyectos, planteándosele un problema experimental concreto a resolver (Batista, Mariño,
González, 2014).
2. Metodología
Para el inicio de este trabajo primeramente se reformaron los programas analíticos de las
asignaturas de Física General, Física Aplicada, Calor y Electromagnetismo, Matemática Superior,
Cálculo diferencial y Cálculo Integral. Era necesario adecuar estos sílabos a las tendencias
actuales acercándolos a lo que generalmente hacen otras universidades y de acuerdo a los
requerimientos de calidad según el nuevo régimen académico. Nos era imprescindible después de
reformar los de Física comenzar con los de matemática superior, cálculo diferencial y cálculo
integral; puesto que era necesario para el cálculo de errores previsto
en la mayoría de las
prácticas; así como el método de regresión lineal que parte de la optimización de la desviación de
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
46
la recta de ajuste a los datos obtenidos experimentalmente y que expondremos más adelante. El
programa analítico de matemática superior no contemplaba el cálculo diferencial e integral que
son temas que son tratados desde el bachillerato en la enseñanza de la mayoría de países de la
región; lo anterior constituye un problema pues no permite alcanzar el nivel requerido en las
asignaturas que se imparten simultáneamente como Física General y Metrología. Posteriormente
se definieron las ocho prácticas que se implementarían en cada uno de los temas de las tres
asignaturas: Física General, Física Aplicada, Calor y Electromagnetismo. A continuación
enumeramos los sistemas de prácticas.
Sistema de prácticas para la asignatura Física general
P1. Densidad de sólidos, P2. Objetos en equilibrio, P3. Coeficiente de fricción, P4. Coeficiente de
viscosidad, P5. Caída libre, P6. Segunda ley de Newton, P7. Trabajo y Energía. P8. Colisiones.
Sistema de prácticas para la asignatura de Física Aplicada a la Ingeniería Automotriz
P1. Momento de inercia, P2. Oscilaciones mecánicas, P3. Dilatación térmica, P4.Calor específico.
P5. Presión hidrostática, P6. Ley de Ohm, P7. Inducción electromagnética, P8. Leyes de la
refracción.
Sistema de prácticas para la asignatura Calor y Electromagnetismo.
P1. Ley de los gases ideales, P2. Calor específico, P3. Primera ley de la termodinámica, P4.
Eficiencia de una máquina térmica, P5. Capacitor de placas paralelas, P6. Leyes de Ohm y
Kirchhoff, P7. Circuitos RLC en serie y paralelo, P8. Transformadores.
Después de definir las prácticas y los objetivos de cada una de ellas se comenzó a hacer una
revisión bibliográfica sobre montajes de prácticas similares para elegir cuáles eran viables y/o
reproducibles y cuáles había que diseñar de acuerdo a los recursos disponibles (www.pceiberica.com;www.ventusciencia.com;www.fisicodidactico.com; www.multiciencias.com.ec).
Se buscó un espacio físico, un aula, para adaptarla a las necesidades para la realización y
almacenamiento de las prácticas. Se diseñó la estructura que tendría el laboratorio (figura 1).
Se exploró en los laboratorios de electricidad existentes en el campus el equipamiento que no se
usaba y que estaban almacenados en los mismos como por ejemplo: fuentes de tensión antiguas,
electroimanes, resistencias eléctricas, capacitores, osciloscopios analógicos, generadores de
señales analógicos. En el laboratorio de Química se aprovecharon soportes oxidados que no se
utilizaban. Se estableció la necesidad de adquirir los componentes que faltaban. En otros casos
había que diseñar y mandar a construir otros.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
47
Figura 1. Diseño del espacio para las prácticas.
Se comenzó con el montaje de cada una de las prácticas, se realizaron las pruebas iniciales, se
tomaron datos, se aplicaron los métodos de cálculo de errores y/o regresión lineal para comprobar
si los resultados estaban acorde con lo que debía obtenerse. En muchos casos hubo que hacer
correcciones, rediseños hasta lograr los resultados que debían considerarse como válidos para
su implementación definitiva. Se confeccionó una guía para la realización de las prácticas donde
constan los detalles y aspectos a tener en cuenta para su correcta manipulación y pasos para
cumplir con los objetivos propuestos, no obstante se hace énfasis en que la mayoría de las
prácticas se debe enfocar como problemas a resolver donde los estudiantes puedan hacer
montajes parciales o totales y propongan cómo resolverán el problema experimental.
Para validar si los resultados de cada práctica estaban en concordancia con los valores previstos
en la teoría usamos dos métodos de gran importancia en las ciencias experimentales que son; el
método del cálculo del error total y el método de regresión lineal. A continuación exponemos las
ideas esenciales de ambos métodos.
El método del error total
permite estimar el error
tanto en una serie de medidas directas
aleatorias así como en las medidas indirectas (Taylor, 2014).
Pasos para determinar el error total de una magnitud X medida directamente:
1) Se obtiene el error de resolución del instrumento.
2) Se mide N veces la magnitud de interés.
3) Se determina la media aritmética.
4) Se calcula el error estadístico.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
48
5) Se calcula el error total.
6) Se expresa la magnitud medida.
Se determina el error relativo.
Cuando se determina indirectamente una
magnitud usando una ecuación y
sustituyendo en ella medidas directas
entonces
hay
que
derivar
la
ecuación correspondiente para encontrar el error total de la medida indirecta. Por ejemplo sea la
W la magnitud que determinaremos experimentalmente dependiente de varias variables esto es:
Entonces hay que encontrar las derivadas parciales de la función para encontrar el error total de la
medida indirecta este método es conocido como propagación de errores.
Después de calcular el error total se reporta la medida indirecta:
Se determina además el error relativo:
El segundo método de regresión lineal es una herramienta de extraordinaria importancia en las
ciencias experimentales y en aplicaciones a la ingeniería. Muchas veces dos magnitudes están
relacionadas a través de una función matemática conocida y a veces desconocida. A través del
análisis de regresión se puede verificar el tipo de dependencia y encontrar de qué forma están
relacionadas las variables (Taylor 2014). El caso más sencillo de regresión es la lineal cuando se
ajusta una dependencia entres dos variables por medio de una recta. Este tipo de análisis permite
estudiar la linealidad entre dos variables. Mediante él se obtiene la recta que tiene una desviación
mínima de un conjunto de puntos experimentales. La función objetivo a optimizar es la desviación
S y viene dada por la siguiente ecuación:
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
49
Derivando parcialmente a S con respecto a la pendiente a y al intercepto b se obtienen las
ecuaciones
para encontrar estos parámetros que son de la recta de mejor ajuste y que
generalmente están relacionados con magnitudes físicas de interés que se obtienen
experimentalmente.
Existen programas de cálculo que dado un conjunto de puntos experimentales (Xi ; Yi) realizan el
ajuste obteniéndose estos parámetros. Como por ejemplos: el Microsoft Excell , Grapher y
Microlocal Origin. Conjuntamente con este ajuste se obtiene el coeficiente de correlación R que es
un indicador de la calidad del ajuste; este coeficiente toma valores comprendidos en el intervalo
(0<R≤1] para correlaciones positivas y [-1≤R<0) para correlaciones negativas y se determina por
la ecuación:
Los errores en la determinación de la pendiente y del intercepto vienen dados por las ecuaciones:
Estos errores pueden determinarse con el programa Microsoft Excell o mediante un programa de
computo sencillo.
3. Resultados
En la Figura 2 mostramos el sistema de prácticas para la asignatura de física general (Pazmiño,
Valencia, 2014); en la Figura 3 se presenta el sistema de prácticas para la asignatura física
aplicada (Bedoya, Jumbo, 2013); En la Figura 4 pueden observase las para la asignatura de
Calor y Electromagnetismo (Galván, Ojeda, 2015). En todas ellas se hace una comparación de los
costos en tres situaciones: comprando todos los materiales para su montaje, utilizando algunos
materiales reciclados y comprando las prácticas ya construidas.
Cada una de las prácticas se validó para su uso mediante medidas experimentales y
procesamiento de datos obtenidos obteniéndose las magnitudes de interés para luego
compararlas con los valores teóricos y/o resultados esperados. Mostramos a continuación dos
ejemplos empleando los métodos de cálculo de errores y regresión lineal expuestos en la
introducción de este trabajo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
50
Figura 2. Sistema de prácticas para la asignatura Física General.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
51
Figura 3. Sistema de prácticas para la asignatura Física Aplicada.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
52
Figura 4. Sistema de prácticas para la asignatura Calor y Electromagnetismo.
Cálculo de errores: El objetivo de la práctica de caída libre de la asignatura de física general es
determinar experimentalmente la aceleración
de la gravedad y su error total. Mediante la
ecuación del movimiento de una partícula bajo la acción de la fuerza de gravedad en caída vertical
desde el reposo se obtiene una expresión que relaciona a la aceleración de la gravedad con el
tiempo que demora en recorrer cierta
distancia:
Aquí el procedimiento seguido es medir el tiempo (t) que demora una esfera en recorrer una
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
53
distancia (y) partiendo del reposo. En nuestro caso fijamos la distancia:
En el caso del tiempo procedimos a obtener su valor promedio y el error total siguiendo los pasos
descritos con anterioridad para las medidas directas.
1) Obtuvimos el error de resolución del contador digital 𝞓tr= 0,001 s
2) Medimos en tiempo diez veces; N=10.
0,286 s; 0,284 s; 0,295 s; 0,277 s; 0,297 s; 0,289 s; 0, 282s; 0,279 s; 0,288s; 0,287 s
3) Determinamos la media aritmética:
4) Calculamos el error estadístico:
5) Calculamos el error total:
6) Expresamos el tiempo como:
7) Calculamos el error relativo: 1,048%.
El valor promedio de la aceleración de la gravedad lo calculamos sustituyendo la distancia media
y el tiempo medio:
El error experimental en la determinación de g se calculó aplicando la ecuación de propagación
de errores para medidas indirectas, derivando la ecuación de g obtenemos:
Sustituyendo los valores anteriores:
Reportamos el valor obtenido como:
El error relativo en la determinación de la aceleración de la gravedad es:
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
54
Como podemos observar el valor teórico de la aceleración de la gravedad 9,81 m/s2 pertenece al
intervalo encontrado experimentalmente. [9,573; 9,987] m/s2 que se obtiene sumando y restando
el error total al valor promedio.
Regresión lineal: El objetivo de la práctica de coeficiente de viscosidad de la asignatura de física
general es el de determinar experimentalmente el coeficiente y su error mediante el método de
regresión lineal; para ello utilizamos el método de Stokes que consiste en dejar caer una esfera en
el líquido y medir la velocidad estacionaria; utilizando la segunda ley de Newton se obtiene una
ecuación que relaciona al coeficiente de viscosidad con la velocidad estacionaria y otros
parámetros: r radio de la esfera g aceleración de la gravedad, 𝛒e densidad de la esfera 𝛒l
densidad del líquido, 𝛎e velocidad estacionaria
2  r 2  g  ( e  l )

9  ve
La velocidad 𝛎e se determina midiendo el tiempo que tarda la esfera en recorrer una distancia d en
régimen estacionario.
; sustituyendo en la ecuación del coeficiente de viscosidad:
2  r 2  g  ( e  l )

d
9
t
, despejando,
Si graficamos la distancia en función del tiempo
es
2  r 2  g  ( e  l )
d
t
9
entonces la pendiente de la recta de regresión
2  r 2  g  ( e  l )
de aquí podemos obtener el valor de coeficiente de viscosidad  .
9 
En la figura mostramos los resultados de las medidas del tiempo que tarda la esfera en recorrer
cinco distancias. El ajuste del conjunto de puntos experimentales a una dependencia lineal
muestra que el coeficiente de correlación R=1 indicando la calidad de las medidas efectuadas y lo
apropiado del método para determinar el coeficiente de viscosidad.
Igualando
2  r 2  g  ( e  l )
m
 0,0089
9
s
y sustituyendo el resto de parámetros
obtenemos que el coeficiente de viscosidad determinado es :
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
55
El error de la pendiente calculado con la ecuación es prácticamente despreciable del ajuste:
Figura 5. Ajuste por el método de regresión lineal.
El coeficiente de viscosidad fue determinado a partir de la pendiente de la recta por lo tanto estará
influenciado por el error de esta y de los demás parámetros como el error de radio, la aceleración
de la gravedad y de la medición de las densidades. Aplicando la ecuación de propagación de
errores obtenemos:
En la ecuación anterior:
.
Al sustituir todos los términos en la ecuación anterior obtenemos un error para el coeficiente de
viscosidad de:
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
56
El error relativo en la determinación del coeficiente de viscosidad:
En la Tabla 1 hacemos una comparación entre el resultado esperado en cada práctica con el
resultado obtenido nos referimos a tres aspectos si es válida, el error que se obtiene, y la
linealidad esperada según el objetivo de cada práctica.
Tabla 1. Cuantificación de errores
Prácticas
Resultado esperado
3
Densidad de sólidos
Objetos en equilibrio
Coeficiente de fricción
Coeficiente de viscosidad
Caída libre
Segunda ley de Newton
Trabajo y Energía
Colisiones
Momento de inercia
Densidad acero,7800 kg/m
T1=1,44 N; T2=0,96 N
[0,15 ; 0,60]
0,260 Pa.s
2
9,81 m/s
linealidad F vs aceleración
Ec = Ep=0,084167 J
Pf =Pi =0,025 kgm/s
Ix>Iy>Iz
Oscilaciones mecánicas
Dilatación térmica
Calor específico
Presión hidrostática
Ley de Ohm
Inducción electromagnética
Leyes de la refracción
Leyes de los gases ideales
Calor específico
Primera ley termodinámica
Eficiencia máquina térmica
Capacitor de placas
paralelas
Leyes de Ohm y Kirchhoff
Circuito RLC serie
paralelo
Transformadores
Resultado Obtenido
y
3
7780 kg/m
T1=1,40 N; T2=1,00 N
0,24
0,265 Pa.s
2
9,78 m/s
F= 0,1359 a+0,0195 (N)
Ec=0,08155 J
Pf =0,023 kgm/s
0,2791>0,1989>0,0828
2
(kg.m )
Validez
Error
Linealidad
0,26 %
2,78;4,17%
Válido
1,93 %
0,31 %
r = 0,99
3,11 %
8,00%
Válido
Linealidad;
-1
β=0,0200 s
-5
-1
Aluminio 2,40 x 10 ºC
Aluminio c = 900 J/kg.K
Linealidad
3
𝛒aceite = 870 kg/m
Linealidad, V = R.I
R=1000 Ω
Linealidad, B=30,00 T
B=30,8 T
Índice refracción, n= 1,50
Linealidad, P = f(T)
Aluminio c = 900 J/kg.K
Ln(At/A0)=-0,0203∙t-0,1745
-1
β=0,0203 s
-5
-1
2,43 x 10 ºC
881 J/kg.K
h2=0,927 h1-0,0004 (m)
3
𝛒aceite = 917 kg/m
V=1014,4∙I - 0.0064 (V)
R=1014,4 Ω
εi=0,002∙ω+0,0026 (V)
B=31,8 T
n=1,57
P=43,484 T -12615 (Pa)
849 J/kg.K
105,95 = 80,63+20,34 (W)
r = 0,95
1%
1,25 %
3%
r = 0,99
5%
r=1
1,4 %
r=1
6%
4,67 %
r = 0,99
6%
4,70%
Eficiencia Ƞ<100%
Linealidad
Permitividad relativa, εr=4,5
Linealidad
R=137 Ω
I=I1+I2
V=V1+V2
f de resonancia, f=870 Hz
Ƞ= 10 %
C=40,729∙A/d - 0,346 (nF)
Permitividad relativa, εr=4,1
V=135,94 I +0,0223 (V);
R=135,94 Ω
2,3 = 1,5 + 0,8 (A)
2,06=1,63+0,43 (V)
f=900 Hz
válido
r=0,97
10%
r =0,99
0,78%
0%
0%
3,45%
Kelevador=2; kreductor=0,5
Kelevador=2,14; kreductor=0,53
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
7%; 6 %
57
4. Discusión
Analizando la Figura 2 vemos como en las prácticas de física general se obtiene un ahorro de
$ 6698,84; en la Figura 3 para el caso de física aplicada el ahorro es de $ 5599 y en la Figura 3
correspondientes a las de calor y electromagnetismo es de unos $ 4071,73. El ahorro total en el
montaje de las 24 prácticas de los tres sistemas es de unos $16369,57 comparado con el hecho
de si se hubiesen comprado cada una de las prácticas ya montadas.
En la validación de las prácticas para el uso docente en doce de ellas se obtienen errores por
debajo del 3 %, lo cual es un resultado satisfactorio, estas prácticas sirven para estimar
parámetros desconocidos con buena precisión. En otras ocho prácticas se obtiene la linealidad
entre parámetros de leyes físicas lo cual sirve para el estudio y comprensión de fenómenos. En
cuatro prácticas se obtienen resultados válidos o sea aceptables pues los valores obtenidos
experimentalmente se encuentran dentro del rango previsto.
5. Conclusiones y Recomendaciones
En este trabajo no hay aportes científicos porque el tema es bastante conocido hay empresas que
comercializan y todo lo referente al diseño está bien concebido, pero a nivel de prácticas para la
docencia no es necesario un grado de precisión elevado como el que si requieren los laboratorios
de investigaciones científicas, entonces los aportes de este trabajo son en el orden práctico para
la docencia y en el aspecto económico.
Con la realización de este trabajo quedó implementado un laboratorio de Física con los tres
sistemas de prácticas previstos que sin duda contribuyen al desarrollo de habilidades
experimentales en los estudiantes de la misma manera que si se hubiesen comprado cada uno de
los montajes.
Son significativos, el ahorro económico para la institución al haberse concluido el montaje del
laboratorio y también la posibilidad de que los estudiantes tengan una cobertura para la
realización de su tesis dentro de la universidad.
Este trabajo puede servir de referencia para que profesores y estudiantes de la universidad y otras
instituciones exploren y aprovechen el potencial existente en ellas para implementar prácticas de
laboratorio en asignaturas de ciencias básicas e incluso de especialización en diferentes carreras
de ingeniería.
Es imprescindible el apoyo de las autoridades académicas para que puedan materializarse las
iniciativas que contribuyan a este tipo de trabajos cuyo único fin es el de elevar el nivel y la calidad
de la enseñanza mediante el desarrollo de habilidades experimentales.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
58
Bibliografía
Agudelo, J.D., García, D.(2010). Aprendizaje significativo a partir de prácticas de laboratorio de
precisión. Latin - American Journal of Physics Education, 149-152.
Flores, J., Caballero Sahelices, M.C., Moreria, M.A.(2009). El laboratorio en la enseñanza de las
ciencias: una visión integral en este complejo ambiente de aprendizaje. Revista
Investigación, 75-111.
Gil, S.(2015). Experimentos de física usando las tic y elementos de bajo costo. Marcombo, S.A.
Batista, M.A; Mariño, P.A; González S.I (2014) . Los laboratorios-proyectos como estrategia
didáctica a través del desarrollo de competencias investigativas. Revista Cubana de
Física,VOL31, E72 ,37-38.
Taylor, J.R (2014). Introducción al análisis de Errores: el estudio de las incertidumbres en las
mediciones físicas. Editorial Reverté, 1ª Edición.
Pazmiño, L; Valencia, D. (2014). Implementación de un laboratorio y de un sistema de prácticas
para la asignatura de Física General en La Universidad tecnológica Equinoccial Extensión
Santo Domingo. Tesis para optar por el título de Ingeniero Electromecánico.
Bedoya, C; Jumbo, J. (2013). Diseño e Implementación de un sistema de prácticas de laboratorio
para la asignatura de Física Aplicada de la carrera de Ingeniería Automotriz en la
Universidad Tecnológica Equinoccial Santo Domingo. Tesis para optar por el título de
Ingeniero Electromecánico.
Galván, M; Ojeda, O. (2015). Diseño e implementación de un sistema de prácticas para la
asignatura Calor y Electromagnetismo de la carrera de Ingeniería Electromecánica en la
Universidad Tecnológica Equinoccial Santo Domingo. Tesis para optar por el título de
Ingeniero Electromecánico.
Agradecimientos:
A: Joaquin Morales LLumiquinga, prorector de la sede Santo Domingo de la Universidad Tecnológica
Equinoccial; Marcelo Estrella Guayasamín, Nilo Olegario Ortega Soliz, coordinadores de las carreras de
Ingeniería Automotriz y Electromecánica, quienes aceptaron la iniciativa y propiciaron las condiciones para
que pudiera implementarse el laboratorio. A los estudiantes y hoy ingenieros: Diego Fabián Valencia Alvear,
Luis Geovanny Pazmiño Bravo, Chistopher Alexander Bedoya Torres, José Fabián Jumbo Román, Mayra
Mariuxi Galván Paredes y Oscar Oswaldo Ojeda Carrera; quienes con su trabajo y aporte pusieron a punto
el laboratorio de Física en la sede Santo Domingo de la Universidad Tecnológica Equinoccial.
Enfoque UTE, V.6-N.2, Jun.2015, pp.44 - 58
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/03/18
Aceptado (Accepted): 2015/05/27
CC BY-NC-ND 3.0
Utilización de plukenetia volubilis (sacha inchi) para mejorar
los componentes nutricionales de la hamburguesa
(Using plukenetia volubilis (sacha inchi) to improve the
nutritional components of burger)
Daniela Baldeón Clavijo1, Francisco Velázquez Rodríguez1, Jesús Eligio Castellanos
Estupiñán1
Resumen:
Se evaluaron tres niveles consistentes en 10 %, 15 % y 20 % de pasta de Plukenetia volubilis
(Sacha Inchi) para sustituir al porcentaje en peso de grasa de cerdo utilizada
convencionalmente a fin de mejorar la calidad nutricional de la hamburguesa común,
comparada con un grupo de referencia. Las unidades experimentales fueron de 10
hamburguesas, con un peso de 100 g cada una y un total de 120. Se analizaron en un diseño
completamente al azar, con tres repeticiones. La investigación se llevó a cabo en la
Universidad Estatal Amazónica y los análisis bromatológicos y microbiológicos para determinar
la calidad de la materia prima y los productos se realizaron en el laboratorio de la Facultad de
Ciencias Químicas de la Universidad Central del Ecuador. Como complementos se realizaron
pruebas sensoriales y estudios de Beneficio/Costo. Los resultados muestran a la variante de 10
% de pasta de Sacha Inchi como la más recomendable para el uso a nivel industrial.
Palabras clave: Plukenetia volubilis; Sacha Inchi; Hamburguesa; Alimentación funcional
Abstract:
Three levels of paste Plukenetia volubilis (Sacha Inchi) consisting of 10, 15% and 20% were
evaluated to replace the weight percent lard conventionally used to improve the nutritional
quality of the common hamburger, compared with a reference group. The experimental units
were 10 burgers, weighing 100 g. each and a total of 120 were analyzed in a completely
randomized design with three replications. The research was conducted in the Universidad
Estatal Amazónica and bromatológics and microbiological analyzes to determine the quality of
the raw material and products are made in laboratory of the Faculty of Chemical Sciences of the
Universidad Central del Ecuador. As supplements sensory tests and studies Benefit / Cost
performed. The results show the variation of 10% pulp Sacha Inchi as the most recommended
for use in industry.
Keywords: Plukenetia volubilis; Sacha Inchi; Burger; Functional food
1. Introducción
Se denominan “Alimentos Funcionales” (AF) aquellos que son elaborados no solo por sus
propiedades nutritivas, sino también para cumplir una función específica como puede ser el
mejorar la salud y reducir el riesgo de contraer enfermedades. Para ello se les agregan
componentes biológicamente activos, como minerales, vitaminas, ácidos grasos, fibra alimenticia
o antioxidantes, etc. A esta operación de añadir nutrientes exógenos se le denomina también
fortificación. Entre los logros reconocidos en la literatura científica y en el marketing de los
1
Universidad Estatal
jestupinan}@uea.edu.ec)
Amazónica,
Tena
-
Ecuador
([email protected],
{fvelasquez,
60
productos alimenticios se encuentra la mejora de las funciones gastrointestinales, el aporte de
sistemas redox y antioxidante, así como la modificación del metabolismo de macronutrientes
(Roberfroid, M. 2000).
Los componentes más destacables de los alimentos funcionales son: la fibra dietética, los
azúcares alcoholes o azúcares de baja energía, los aminoácidos, los ácidos grasos insaturados,
los fitoesteroles, las vitaminas y los minerales, los antioxidantes, las bacterias ácido lácticas y
otras sustancias excitantes o tranquilizantes (Salud, 2009).
La relación entre consumo de grasa y el desarrollo de enfermedades cardiovasculares ha
generado que organizaciones como la ADA (American Dietetics Association, 1990) y la
Organización Mundial de la Salud (FAO) (WHO, 1990), hayan modificado las recomendaciones
dietéticas en la ingesta de grasa a menos del 30 % de la ingesta calórica total y del colesterol en
menos de 300 mg / día (Piñero, M. et al, 2008).
La emergente ciencia de los materiales alimentarios se está abocando al diseño de estructuras
que sean apetecibles, saludables y dispensen nutrientes y compuestos bioactivos de manera
efectiva durante la digestión (Aguilera, J. 2007). El interés del consumidor por la relación entre la
dieta y la salud ha aumentado la demanda de información acerca de los alimentos funcionales.
Los componentes básicos de las grasas son los ácidos grasos. Se denominan ácidos grasos
esenciales a aquellas grasas que no pueden ser sintetizadas o formadas por el organismo y por lo
tanto es esencial que sean suministrados por la dieta. Estos compuestos son fundamentales para
el transporte de distintos nutrientes, participan en los sistemas de defensa o inmunidad, son
precursores de hormonas y ayudan a mantener las estructuras celulares. Los ácidos grasos
omega se encuentran dentro de los denominados como esenciales por la razón de que el propio
cuerpo humano no lo produce. Esto hace que deben ser ingeridos a través de una alimentación
adecuada (Licata, M. 2009 b). Existen dos familias de ácidos grasos poliinsaturados esenciales:
los “omega-6 y los omega-3”. Su nombre omega-6 y omega-3 deriva de la configuración química
del ácido graso, en este caso, de la ubicación del doble enlace en relación al metilo terminal (CH3
terminal) (Castillo, C. 2009).
El fruto de la Plukenetia volubilis (Sacha Inchi) o maní del inca, es beneficioso para la salud, y es
aconsejable incluirlo en las comidas ya que favorece el correcto desarrollo y funcionamiento, tanto
del sistema nervioso como del cerebro pues es rico en ácidos grasos esenciales, como lo son los
omega 3, omega 6 y omega 9 (Incainchi, 2009).
La materia prima oleaginosa que es la semilla de Sacha Inchi contiene altas cantidades de aceite
(54 %) y relativamente alto contenido proteico (27 %) (Hamaker, E. et al., 1992). Por otro lado,
García, H. (1992) reportó los siguientes resultados con respecto a la composición química del
Sacha Inchi: proteína 24.22%, humedad 5.63%, grasa 43.10%, carbohidratos 7.72% y ceniza
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
61
2.80%. Los estudios científicos actuales señalan a la Sacha Inchi como una de las mejores
oleaginosas al ser comparada con algunas de uso clásico (maní, palma, soya, maíz, colza y
girasol), por su composición y su alta calidad nutricional. El aceite tiene alto contenido en ácidos
grasos esenciales omega 3 (más del 48%) y omega 6 (36%). Su digestibilidad es muy alta (más
del 96%) y contiene una elevado proporción de antioxidantes, vitamina A y vitamina E
(Agroindustrias Amazónicas, 2009). El contenido de otros compuestos como proteínas (33%) y
antioxidantes (50%). demuestra su posibilidades de mejorar la alimentación al ser incluido en la
dieta humana. Investigaciones recientes realizadas con aceites omegas y vitamina E indican la
importancia nutricional y terapéutica de su consumo para el control de radicales libres y una serie
de enfermedades que estos originan en el organismo humano (Manco, C. 2006).
La producción del Sacha Inchi se inicia a los 6,5 meses del trasplante, obteniéndose en el primer
año rendimientos promedios de 0,7 a 2,0 t/ha. Se desarrolla en asociación y con cultivos de
cobertura, alcanzando edades hasta de 10 años.
La Organización Mundial de la Salud (OMS) afirma en sus estudios (OMS, 2009) que el mundo
desarrollado consume más del doble de los requerimientos diarios necesarios en proteínas
mientras el tercer mundo sufre una carencia alarmante de proteínas. Por otro lado, la propia OMS
recomienda una dieta con proporción de sólo el 25 % de proteína animal sustituyendo el otro 75 %
con proteína de origen vegetal. La administración proteica en una dieta debe ser constante. Desde
el punto de vista cuantitativo, las proteínas aportan 4 Kcal por gramo, y la recomendación es que
su consumo sea de 1 gramo de proteína por kg de peso del consumidor (Licata, M. 2009 a).
Se considera que el valor nutritivo de las proteínas de la carne es superior al de las proteínas
vegetales. Para la nutrición humana es tan importante la calidad como la cantidad de las proteínas
ingeridas. Tanto el hombre como los animales solo pueden sintetizar parte de los aminoácidos que
necesitan para la construcción de sus propias proteínas, los otros, denominados aminoácidos
esenciales, tienen que ser necesariamente suministrados por la dieta (Prandl, O. et al, 1994).
Las culturas alimenticias en los países Latinoamericanos se han transformado por la influencia de
los países más ricos. La transnacional McDonald ha llevado por todo el mundo las hamburguesas
y este hecho ha estimulado a que muchos países hayan transformado sus hábitos alimentarios,
imponiéndose el uso de las comidas rápidas. En definitiva, el alto consumo de hamburguesas en
numerosos países no es otra cosa que el resultado de la toma de conciencia de un nuevo modo
de alimentarse que sigue criterios más racionales, lógicos y económicos. Como un producto rico
en proteínas de alta calidad, vitaminas y otros compuestos fácilmente asimilables (Barreda, P.
2009), se considera una de las favoritas en las comidas rápidas. Por esta razón es siempre
recomendable adicionarle algún ingrediente que pueda aportar un beneficio para la salud y que
contribuya al equilibrio del colesterol, principal causa de mortalidad en el mundo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
62
El descubrimiento científico de las propiedades de la Sacha Inchi o maní de los incas ha elevado
esta planta amazónica a un primerísimo lugar para la alimentación y la medicina tradicional al
constituir una de las fuentes vegetales más grandes de omega, un ácido graso esencial para la
vida humana (Sacha Inchi, 2007). La composición en ácidos grasos del aceite crudo determinada
por cromatografía de gases reveló un alto grado de instauración (90,34 %) destacándose el ácido
linolénico (43,75 %) seguido del ácido linoleico con 36,99 %. Entre los ácidos grasos saturados el
más significativo fue el ácido palmítico con 5.61 % (Pascual, G. y Mejía, L. 2009). En comparación
a los aceites de todas las semillas oleaginosas utilizadas en el mundo, para consumo humano, el
Sacha Inchi es el más rico en ácidos grasos insaturados, llega hasta 93,6 % (Laboratorio vida
nueva, 2009).
El presente trabajo persigue como objetivo evaluar la factibilidad técnica de la utilización de
Plukenetia volubilis (Sacha Inchi) para mejorar los componentes nutricionales de la hamburguesa.
2. Materiales y Métodos
La hamburguesa es un producto molido, fresco que se prepara con carne de diferentes especies
entre ellas la de res, mezclada con grasa de cerdo y aumentado con harinas y/o almidones (yuca,
papa) y que debe ser congelada para su conservación. Las hamburguesas tienen un picado
grueso para producir textura fibrosa y desmenuzable, idealmente la acción mecánica, junto con el
cloruro de sodio, debería ser suficiente para ligar el producto antes y después del cocinado. En la
práctica la necesidad de romper el tejido conectivo hace que sea necesario un picado más
intenso. El uso de carne de baja calidad, que contenga grandes cantidades de tejido conectivo
puede hacer que la hamburguesa tenga una textura no deseable, muy cohesiva. (Varnam, A. y
Sutherland, J. 1995). Venegas, G. y Piñeros, G. (2002), describen que la pasta de hamburguesa
se hace mezclando carnes y grasa, y permite el uso de harina de trigo y agua, así como la adición
de especias frescas, como cilantro, cebolla larga o cabezona, apio y perejil, pimentón, ajo,
yerbabuena y otras.
El picado reduce los problemas de obstrucción por la grasa y el tejido conjuntivo lo que también
incide favorablemente sobre las propiedades de la cocción. El tipo más común de picado se
consigue con un molino de tornillo que funciona en una cámara horizontal. Las piezas de carne se
introducen desde un extremo del molino, y es recomendable no usar carne congelada.
Habitualmente en el proceso se produce un aumento de temperatura de hasta 10 ºC. Algunos
tipos de molino permiten que se use carne semicongelada y en ese caso, el calor latente de fusión
limita el aumento de temperatura. La parte externa de la salida consiste en una placa perforada
fija, que está situada adyacente a una cuchilla rotatoria o una placa perforada rotatoria. Las
picadoras producen un picado relativamente grueso con partículas irregulares debido a la acción
de las rasgaduras.
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
63
La presente investigación se desarrolló en la Planta Piloto de Procesos Agroindustriales de la
Universidad Estatal Amazónica, ubicada en la ciudad de Puyo en el kilómetro 2,5 de la vía Tena,
cantón Pastaza, provincia de Pastaza, Ecuador y tuvo una duración de 120 días. Las condiciones
meteorológicas imperantes en la zona se describen en Tabla 1. En la misma se destacan la baja
temperatura promedio, la elevada humedad relativa y la alta tendencia a la lluvia que existe en la
región de Pastaza.
Tabla 1. Condiciones meteorológicas de la Ciudad de Puyo, Cantón Pastaza
PARAMETRO
DATOS
Altitud (msnm)
900
Temperatura (ºC)
21
Humedad relativa (%)
87- 89
Pluviosidad (mm)
3500
Fuente: Aeropuerto “Río Amazonas”, 2014
Previo al inicio del experimento se realizaron pruebas en la elaboración de la hamburguesa, en las
cuales se analizó el efecto de añadir a la hamburguesa 10, 15, 20 y 30 % de Sacha Inchi. La
muestras con 10, 15 y 20 % de adición permitió la liga de los ingredientes de la hamburguesa y
con 30 % de adición no se logró una liga adecuada de la mezcla. Por tal motivo se utilizaron
únicamente los niveles 10, 15 y 20 % de adición de Sacha Inchi para la fabricación de la
hamburguesa. La unidad experimental en la presente investigación estuvo constituida por 10
hamburguesas con un peso de 100 g cada una, siendo necesarias un total de 120 hamburguesas
para el experimento. Se evaluaron los tres niveles de utilización de pasta de Plukenetia volubilis
(10, 15 y 20 %), en sustitución al porcentaje en peso de la grasa de cerdo utilizada
convencionalmente en la elaboración de hamburguesas, los resultados fueron comparados con un
grupo de Referencia, en el cual no se incluyó la pasta. El esquema del experimento empleado se
especifica en la Tabla 2.
Tabla 2. Esquema del experimento
Código
T.U.E.
Réplicas
Hamburguesa/Tratamiento
0 %Sacha Inchi
R
10
3
30
10 %Sacha Inchi
SI10
10
3
30
15 %Sacha Inchi
SI15
10
3
30
20 %Sacha Inchi
SI20
10
3
30
Tratamientos
Total
120
T.U.E.: Tamaño de Unidad Experimental
Para la distribución de los tratamientos se utilizó el Diseño Completamente al Azar.
Los
resultados experimentales fueron sometidos a un Análisis de Varianza (ADEVA) con separación
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
64
de medias por el método de rango múltiple de Tukey a un nivel de significación de 0,05 y análisis
de estadística no paramétrica (Prueba de Kruskal Wallis).
Las variables estudiadas en esta investigación fueron las siguientes:
1. Características Bromatológicas (Humedad, Materia seca, Proteína, Grasa, Fibra,
Carbohidratos, Ceniza)
2. Contenido de Ácidos grasos (Palmítico, Esteárico, Mirístico, Láurico, Oleico, Linoleico,
Palmitoleico, Alfa linolénico, Araquídico)
3. Análisis Microbiológico (Recuentos de Mohos y Levaduras, Recuentos de Coliformes Totales,
Escherichia coli, Stafilococcus aureus, Salmonella)
4. Análisis Sensorial (Aceptabilidad, Intención de compra)
5. Análisis Económico (Ingresos y egresos, Beneficio/Costo)
Los análisis se realizaron en el laboratorio de la Facultad de Ciencias Químicas de la Universidad
Central del Ecuador. Para los análisis bromatológicos se entregó una muestra de hamburguesa
cocida debidamente guardada en una funda plástica marca “Reynolds” (bolsas resellables
medianas para congelar), transportada en cooler manteniéndola a una temperatura de 8 ºC para
todos los tratamientos. La muestra de maní tostado (Sacha Inchi) no requirió de refrigeración.
Estas muestras fueron analizadas para cada parámetro con un método específico como se
describe en la Tabla 3.
Tabla 3. Métodos analíticos usados para los análisis bromatológicos
Parámetro
Método
Proteína
MAL-04
39.1.19 Método oficial AOAC 981.10
Grasa
MAL-03
39.1.08 Método oficial AOAC 991.36
Humedad
MAL-13
33.1.03 Método oficial AOAC 925.10
Cenizas
MAL-02
32.1.05 Método oficial AOAC 923.03
Fibra
MAL-50
Carbohidratos
Cálculo
Calorías
Cálculo
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
65
Para los análisis microbiológicos las muestras se entregaron al mismo laboratorio en similares
condiciones de conservación. Estas muestras fueron analizadas para cada parámetro con los
métodos que se describe en la Tabla 4. Los análisis se complementan con estudios de
aceptabilidad e intención de compra. Finalmente se realiza un análisis de Beneficio/Costo para
determinar la factibilidad económica de la propuesta.
Tabla 4. Métodos usados para el análisis microbiológico de la hamburguesa cruda
Parámetros
Métodos
Recuentos de mohos
AOAC 997.02
Recuentos de levaduras
AOAC 997.02
Recuentos de Coliformes Totales
AOAC 991.14
Escherichia coli (recuento)
AOAC 991.14
Stafilococcus aureus (recuento)
AOAC 2003.11
Salmonella spp. (Identificación/25g)
NTE INEN 1529-15:96
En la Figura 1 se muestra la secuencia de preparación de la pasta de Sacha Inchi. Obsérvese
como se detallan las temperaturas y el tiempo de operación en los casos que se requieren.
Figura 1. Diagrama de flujo del proceso de producción de la pasta de Sacha Inchi
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
66
En la Tabla 5 se presentan las composiciones de la materia prima usada para la formulación de
las hamburguesas sometidas a investigación. En la misma se observa que se mantienen
invariables los valores porcentuales de carne de res y harina de trigo y como se van sustituyendo
las proporciones de grasa de cerdo por partes proporcionales de pasta de Plukenetia volubilis.
Tabla 5. Materiales usados para la formulación de hamburguesa
Ingredientes
R (%)
T1 (%)
T2 (%)
T3 (%)
Carne de res
70
70
70
70
Grasa de cerdo
20
10
5
0
Pasta de Sacha Inchi
0
10
15
20
Harina de trigo
10
10
10
10
La composición de las hamburguesas se complementa con la adición de aditivos y condimentos.
La Tabla 6 muestra los porcentajes de aditivos y condimentos usados en la formulación.
Tabla 6. Aditivos y condimentos usados para la formulación de la hamburguesa
Aditivos y condimentos
Porcentaje
Agua
15,000
Nitratos
0,015
Sal
2,300
Tripolifosfatos
0,170
Ácido Ascórbico
0,015
Cebolla perla fresca
3,330
Pimiento fresco
2,000
Ajo fresco
2,000
En la Figura 2 se muestra la secuencia tecnológica del proceso de elaboración de la
hamburguesa. En la misma aparecen las propiedades en cada etapa del proceso,
fundamentalmente las temperaturas inicial y final y los tiempos de operación recomendados.
3. Resultados y Discusión
La Tabla 7 muestra la caracterización química de la Sacha Inchi de acuerdo a las técnicas
analíticas especificadas en la Tabla 3. Los dos primeros índices son el contenido de agua y
sólidos de la semilla. A partir de ahí se relacionan los componentes del sólido divididos en
Proteína, Grasa Cruda, Fibra Cruda, Cenizas y Carbohidratos. Finalmente se expone el contenido
energético de la almendra descascarada y tostada.
El contenido de humedad de 2,60 % se encuentra por debajo de los resultados reportados por
García, H. (1992) quien determinó un promedio de 5,63 % y Sacha Inchi Corporation y LRF
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
67
Representaciones S.A.C (2009) un promedio de 6,37 %. Este hecho guarda relación con el alto
contenido de materia seca (97,40 %), que supera en un 3,03 % a los valores reportados por dicho
autor.
Figura 2. Diagrama de flujo del proceso de elaboración de la hamburguesa
El contenido de proteína del Plukenetia volubilis (Sacha Inchi) alcanzó un promedio de 28,50 %.
Este valor es similar al reportado por Sacha Inchi Corporation y LRF Representaciones S.A.C
(2009), con un 28,52 % de proteínas en la almendra, Hamaker, E. et al, (1992), determinaron un
contenido de proteína de 27,00 %. Por otro lado Obregón, L. (1993), manifiesta que el Plukenetia
volubilis contiene 23,00 % de proteína ofreciendo perspectivas para su uso. Así mismo García, H.
(1992) determinó un contenido de 24,22 % de proteína en el Plukenetia volubilis. Por lo
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
68
anteriormente expuesto el alto contenido de proteína de esta leguminosa puede ser aprovechado
en la industria cárnica para la elaboración de productos.
Tabla 7. Caracterización química del Sacha Inchi Amazónico Ecuatoriano
Componente
Resultado
Humedad (%)
2,6
Materia seca (%)
94,4
Proteína (%)
28,50
Grasa Cruda (%)
52,63
Fibra Cruda (%)
1,02
Cenizas (%)
2,80
Carbohidratos (%)
12,44
Calorías (Kcal/100 g)
637,4
El contenido de la grasa cruda determinada en el Plukenetia volubilis fue de 52,63 %. Al respecto,
Hazan y Stovesand (1980) reportaron un 54 %, Hamaker, E. et al (1992) un 49 %, Obregón, L.
(1993) el 49,9 %, Pascual, G. y Mejía, L. (2009) un promedio de 51,4 % de grasa cruda en el
grano descascarado y tostado. Como puede observarse estos valores no difieren mucho al
compararlos con los reportados por los especialistas mencionados.
La fibra cruda determinada en el producto utilizado alcanzó un contenido de 1,02 %. Este
resultado difiere con lo reportado por Sacha Inchi Corporation y LRF Representaciones S.A.C
(2009), que es de un 2,6 % de fibra.
El indicador de ceniza presentó un valor de 2,8 %, similar al reportado por Sacha Inchi Corporation
y LRF Representaciones S.A.C (2009) que fue de 2,1 %.
El contenido de carbohidratos encontrado en la investigación fue de 12,44 %, intermedio a lo
indicado por Sacha Inchi Corporation y LRF Representaciones S.A.C (2009) que reporta un
porcentaje de carbohidratos entre 17,7 % y 7,72 %.
La energía calórica del Plukenetia volubilis reportado en el ensayo fue de 637,4 Kcal/100g,
superando a los resultados reportados por Sacha Inchi Corporation y LRF Representaciones
S.A.C (2009) con 555,7 Kcal/100g, y otros investigadores con 562 Kcal/100g respectivamente.
Este resultado sugiere que el Sacha Inchi amazónico ecuatoriano constituye un alimento con
mayor potencial calórico que los productos a los que se refieren las fuentes bibliográficas.
En los análisis realizados a la semilla de Plukenetia volubilis se encontraron los ácidos grasos
saturados: Palmitico (3,84 %) y Esteárico (2,41 %), mientras que el contenido de ácidos grasos
insaturados fue de 10,28 % de Oléico (Omega 9), 35,69 % de ácido Linoléico (Omega 6) y 47,74
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
69
% de ácido Alfa linolénico (Omega 3). De los ácidos Palmitoléico y Araquídico solo se
determinaron trazas.
Los resultados obtenidos demuestran que el Sacha Inchi es un alimento funcional que proporciona
beneficios para la salud más allá de la nutrición básica, coincidiendo con lo expresado por
Vázquez, M. (2005). Su consumo le da energía al cerebro, limpia el torrente sanguíneo, y lleva los
nutrientes a las células (Anaya, 2006). El contenido de ácidos grasos en el Sacha Inchi es similar
a lo reportado por Inca Inchi (2009): alfa linolénico 48,60 %, ácido linoléico 36,80 % y ácido oleico
8,28 %.
Los resultados del análisis bromatológico realizado a las hamburguesas se exponen en la Tabla 8.
El contenido de humedad en los diferentes tipos de hamburguesas cocidas presentó diferencias
estadísticas (P<0,01), es así que las hamburguesas del grupo Control y del 10 % de Sacha Inchi,
presentaron los mayores contenidos de humedad, alcanzando promedios de 58,93 y 58,86 %
respectivamente, seguidos por el contenido de humedad en las hamburguesas pertenecientes al
tratamiento de 15 % de Sacha Inchi que alcanzaron el 54,53 %, en tanto que el menor contenido
de humedad se registró en el grupo de hamburguesas elaboradas con 20 % de pasta de Sacha
Inchi, en el cual se determinó un 54,09 % de humedad. Los resultados anteriormente descritos
para esta variable están relacionados a la capacidad de retención de humedad que tienen las
hamburguesas de cada tratamiento. Además Ramos, M. (2008), manifiesta que el agua
representa el 75 % del peso total de la carne y únicamente el 5 % del total de agua favorece a la
unión de los puentes de hidrógeno con los grupos hidrófilos cargados de proteína.
Tabla 8. Composición química de los cuatro tipos de hamburguesas cocidas mediante el empleo de
diferentes niveles de Sacha Inchi
Niveles de Sacha Inchi
Parámetro
0
10
15
20
Probabilidad
% CV
Humedad %
58,93a
58,86a
54,53b
54,09b
0,0001**
0,31
Materia Seca %
41,07b
41,14b
45,47a
45,90a
0,0001**
0,41
Proteína %
18,57c
20,86a
20,31b
20,42b
0,0001**
0,31
Grasa Cruda %
13,35a
12,91b
11,90c
9,84d
0,0001**
0,86
Fibra Cruda %
0,21c
0,28b
0,19c
0,32a
0,0001**
5,34
Cenizas %
2,98d
3,23a
3,17b
3,04c
0,0001**
0,48
Carbohidratos %
5,80c
8,20a
8,44a
7,46b
0,0001**
2,45
Calorías Kcal/100g
217,6
234,4
222,4
200,0
-
-
Letras iguales no difieren estadísticamente según Turkey (P<0.05)
% CV: Porcentaje de Coeficiente de Variación
**: Diferencia altamente significativa entre promedios
La materia seca en los diferentes tipos de hamburguesas cocidas presentó diferencias
estadísticas (P<0,01) obteniéndose el mayor valor en las hamburguesas de los tratamientos 15 y
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
70
20 % de pasta de Sacha Inchi con 45,47 y 45,90 % de materia seca, seguido por el contenido de
materia seca determinado en las hamburguesas de los tratamientos 10 % de Sacha Inchi y
Testigo con promedios de 41,14 % y 41,07 % respectivamente. Estos valores presentan
correspondencia con los valores de humedad.
El contenido de proteína en los diferentes tipos de hamburguesa cocida presentó diferencias
significativas (P<0.01), es así que las hamburguesas elaboradas con 10 % de pasta de Sacha
Inchi con 20,86% obtuvo el mayor promedio, posteriormente las hamburguesas elaboradas con 15
y 20 % de Sacha Inchi no presentan significación entre si, presentando valores de 20,31 y 20,42
% respectivamente, pero si existen diferencias al compararlos con el contenido de proteína
determinado en las hamburguesas pertenecientes al grupo control que alcanzaron un promedio de
18,57 %, valor similar al obtenido por Melgarejo y Maury (2002) con 18,90 %.
El aumento en el porcentaje de proteína con respecto a la referencia se debe a la inclusión de
pasta de Sacha Inchi (28,50 % de proteína). Al mezclarse entre sí las proteínas de origen animal y
las de origen vegetal mejoran la hamburguesa convirtiéndola en un producto funcional. Una
respuesta normal es la que se produce en los tratamientos 15 y 20 % de pasta de Sacha Inchi que
al no contener grasa de cerdo (mejor emulsionante de los embutidos Salazar (2008)), la emulsión
se rompe al momento de la cocción, perdiéndose el valor nutritivo de varios ingredientes, en este
caso de proteína.
Los resultados obtenidos con respecto al contenido de grasa cruda en los diferentes tipos de
hamburguesa cocida demuestran que mientras más pasta de Sacha Inchi se utiliza en la
hamburguesa, será menor el contenido de grasa. Así los valores obtenidos alcanzan 13,35 % de
grasa para las hamburguesas del tratamiento control, 12,91 % para las hamburguesas elaboradas
con 10 % de Sacha Inchi, 11,90 % de grasa en las hamburguesas elaboradas con 15 % de pasta
de Sacha Inchi y finalmente 9.84 % de grasa en las hamburguesas elaboradas con 20 % de pasta
de Sacha Inchi, presentando diferencias significativas (P<0.01), entre todos los tratamientos.
Estos resultados se encuentran en correspondencia al contenido de la grasa de cerdo y del Sacha
Inchi (100 % de grasa en de cerdo), 52,63 % de grasa en el Sacha Inchi).
La disminución en el contenido de grasa con la adición de Sacha Inchi en las hamburguesas
puede tener consecuencias favorables a nivel nutricional, pues el consumo de dietas con alto
contenidos de grasas, especialmente saturadas, tiene consecuencias negativas para la salud
humana, y la reducción de éstas, es una de las tendencias más fuertes en el desarrollo de los
productos alimenticios de hoy (Yánez, E. y Biolley, E. 1999).
El contenido de fibra en los diferentes tipos de hamburguesa cocidas presentó diferencias
estadísticas (P<0.01), obteniendo valores de 0,32 % para las hamburguesas elaboradas con 20 %
de Sacha Inchi, seguido por las hamburguesas procesadas con 10 % de pasta de Sacha Inchi con
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
71
0,28 %, mientras que las hamburguesas de los tratamientos Control y 15 % de adición de Sacha
Inchi alcanzaron valores de 0,21 y 0,19 % respectivamente, los cuales no tienen significación
entre ellos, pero si con el resto de los tratamientos. La fibra no es un componente primordial de la
hamburguesa, los resultados obtenidos en la investigación se consideran bajos al compararse con
los reportados que han sido de 1,96 g/100g.
El contenido de cenizas en los diferentes tipos de hamburguesa cocidas presentó diferencias
estadísticas (P<0,01), obteniéndose el mayor valor en las hamburguesas del tratamiento 10 % de
Sacha Inchi con 3,23 %, seguido por el contenido de ceniza en las hamburguesas del tratamiento
15 % de pasta de Plukenetia volubilis con 3,17 %, luego por las cenizas contenidas en las
hamburguesas del tratamiento 20 % de Sacha Inchi con un valor de 3,04 %, y finalmente con el
menor contenido de ceniza fue determinado en las hamburguesas del tratamiento testigo con 2,98
%.
En lo referente al contenido de carbohidratos en los diferentes tipos de hamburguesa cocidas
existe diferencias estadísticas (P<0.01), es así que las hamburguesas de los tratamientos 10 y 15
% de Plukenetia volubilis presentaron los mayores contenidos de carbohidratos, alcanzando
promedios de 8,20 % a 8,44 % respectivamente, seguidos por el contenido de carbohidratos en
las hamburguesas elaboradas con 20 % de Sacha Inchi que alcanzaron un promedio de 7,46 %,
en tanto que el menor contenido de carbohidratos se registró en el grupo de hamburguesas del
grupo Control, en el cual se determinó un 5,80 %. En el caso de las hamburguesas elaboradas
con 20 % de Sacha Inchi, el contenido disminuye por perdida de ingredientes en la cocción,
debido a que la hamburguesa rompe su emulsión.
Los valores de calorías calculados para los diferentes tipos de hamburguesa cocidas son: para el
tratamiento Control un valor de 217,6 Kcal/100g, para las hamburguesas del tratamiento 10 % de
Sacha Inchi 234,4 Kcal/100g, luego en las hamburguesas del tratamiento 15 % de pasta de Sacha
Inchi 222,4 Kcal/100g, y finalmente para las hamburguesas del tratamiento 20 % de Sacha Inchi
con 200,0 Kcal/100g.
El Sacha Inchi se considera un alimento energético por sus valores de grasa y calorías. A pesar
de esto, se observa una disminución paulatina en los diferentes niveles de Sacha Inchi, esto
debido a la perdida de ingredientes por cocción, en relación a la cantidad de grasa de cerdo que
se utilizó en cada tratamiento.
En relación al análisis microbiológico, reportado en la Tabla 9, los resultados obtenidos para
Coliformes Totales no sobrepasan los límites máximos permitidos por la norma INEN 2 346:2006.
Tampoco se incumple la Norma Peruana, en varios casos no contemplados en la norma
ecuatoriana. Se ha determinado ausencia de Escherichia coli, Stafilococcus aureus y Salmonella
spp. Al respecto, Frazier, W y Westhoff, D. (1985), manifiestan que el Eschericha coli es un
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
72
microorganismo relativamente sensible al calor, por lo que se puede destruir fácilmente a
temperaturas de pasteurización o simplemente al cocinarse correctamente.
No existe referencia en las normas en lo referente a Mohos y Levaduras. Se ha demostrado que
tanto en las carnes frescas y curadas, como en aves y mariscos frescos, se encuentran los
siguientes
géneros
de
bacterias:
Achromobacter,
Aeromonas,
Aerobacter,
Clostridium,
Corynebacterium, Escherichia, Lactobacillus, Staphylocovvus y Streptococcus. Además se han
aislado los siguientes géneros de hongos: Penicillium, Cladosporium, Mucor, Aspergillus,
Alternaria,
Fusarium y Rhizopus.
También
se encontraron las levaduras
Cándida y
Saccharomyces (Iparraguirre, M. 2009). No se encuentran microorganismos (Achromobacter,
Clostridium, Proteus vulgarism, Pseudomonoas flurescens) que puedan alterar el sabor, olor y
otras cualidades de la hamburguesa, que son causadas fundamentalmente por microorganismos
proteolíticos y lipolíticos (Pelczar, R. y Reid, R. 1979). Según Larrañaga, I. (1999) los recuentos en
carne picada suelen ser mayores que los de las correspondientes canales y su desarrollo
dependerá de si el envasado se hace de forma aeróbica o anaeróbica. Además este tipo de
carnes, una vez que se descongela, es al parecer más perecedero que la carne que no se
congela.
Tabla 9. Resultados microbiológico de cuatro tipos de hamburguesas crudas elaboradas mediante el
empleo de diferentes niveles de Sacha Inchi
% Sacha
Límite
Límite
Inchi
Parámetro
0
10
15
20
máximo
máximo
Norma
Norma INEN
Peruana
Recuento de mohos y
2,7 x
2
levaduras
Coliformes totales
2,3 x
2
10
10
1,8 x
1,6 x
2
2
2,1 x
1,4 x
102
1,5
-
-
2,4 x 10
10
x
1,4 x
3
2
10
10
Escherichia coli, UFC/g
< 10
< 10
< 10
< 10
50
10
Stafilococcus
< 10
< 10
< 10
< 10
10²
15 x 10
-
-
-
-
Ausencia
Ausencia
aureus,
102
-
2
10
3
2
UFC/g
Salmonella spp.
Fuente: Norma Peruana (2008) Preparados de carnes refrigeradas o congeladas.
Norma INEN (2006) Carne fresca y menudencias comestibles.
La aceptabilidad de las Hamburguesas elaboradas mediante diferentes niveles de Sacha Inchi
presentó diferencias estadísticas (P<0,01), según Kruskal Wallis presentando medianas
superiores en las hamburguesas de los tratamientos Control, 10 y 15 % de pasta de Sacha Inchi
con un valor de 4 puntos (Gusta un poco) y la menor mediana correspondió a las hamburguesas
elaboradas con 20 % de Sacha Inchi con un valor de 3 puntos (Ni gusta ni disgusta).
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
73
Ramos, M. (2008) manifiesta que la grasa, principalmente la de cerdo, juega un papel importante
en la determinación de las propiedades organolépticas de los productos cárnicos. Ranken, M.
(1993) describe que en algunos alimentos, entre ellos la carne, las grasas son responsables de
parte del aroma, contribuyendo así a la palatabilidad de la dieta. Por esta razón la disminución de
la grasa de cerdo y el aumento de la pasta de Sacha Inchi, puede haber ocasionado una menor
aceptabilidad de varios panelistas para los tratamientos 15 y 20 % de Sacha Inchi. En la industria
de alimentos, los sustitutos de grasa están constituidos por una gran variedad de compuestos que
se utilizan para reemplazar total o parcialmente la grasa empleada en la elaboración de
hamburguesas manteniendo muchas de las características de textura y sabor, que los hacen
apetecibles por los consumidores (Gershoff, S. 1995).
En lo referente a la intención de compra, las hamburguesas elaboradas con 10 % de Plukenetia
volubilis presentaron el 71, 67 % de respuesta positiva, es decir los panelistas si comprarían la
hamburguesa, mientras que un 20 % no la comprarían, para el tratamiento 15 % de Sacha Inchi
en las hamburguesas, el 70,00 % si comprarían la hamburguesa, y el 23,33% no lo harían, en
cuanto a las hamburguesas del tratamiento Control el 61,67 % de los encuestados si la
comprarían, y un 26,67 % no lo harían, y por último las hamburguesas del tratamiento 20 % de
Plukenetia volubilis un 55,00 % de personas encuestadas si la comprarían, mientras que el 35,00
% no comprarían las hamburguesas.
Analizando a la composición de ácidos grasos en la hamburguesa elaborada con la utilización del
10 % de Plukenetia volubilis es importante resaltar el Omega 3 con 16.82 %, el Omega 6 con
21.97 % y el Omega 9 con 34.88 %, que se ven reflejados en los valores determinados en la
constitución del Sacha Inchi. También existe un incremento de Ácido Palmítico, Esteárico y Oleico,
aportados por la composición de la carne y grasa (García, J. 2008).
Los resultados del análisis económico se muestran en la Tabla 10. Obsérvese que se
consideraron los costos necesarios para la obtención de 10 kg de hamburguesas de los diferentes
tratamientos, así como los ingresos obtenidos por la cotización del producto terminado.
Según los cálculos, se ha determinado el mayor índice de Beneficio/Costo en las hamburguesas
pertenecientes al tratamiento de 10 % de Plukenetia volubilis, reportándose un índice de 1,25
USD, lo cual indica que por cada dólar invertido durante el ensayo se obtiene una rentabilidad de
0,25 USD. Los demás tratamientos presentaron indicadores inferiores, ya sea por la inclusión de
niveles superiores de pasta de Sacha Inchi o por una menor cotización en el producto terminado
en el caso del tratamiento testigo ya que no es considerado como tal un alimento funcional.
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
74
Tabla 10. Evaluación económica de los cuatro tipos de hamburguesas
Concepto
Niveles de Sacha inchi (%)
EGRESOS
0
Carne de Res
1
10
15
20
27,72
27,72
27,72
27,72
2,00
1,00
0,50
0,00
0,00
2,50
3,75
5,00
2,00
2,00
2,00
2,00
1,22
1,22
1,22
1,22
0,59
0,59
0,59
0,59
5,00
5,00
5,00
5,00
38,53
40,03
40,78
41,53
40,0
50,0
50,0
50,0
Subtotal Ingresos
40,00
50,00
50,00
50,00
Beneficio / Costo
1,04
1,25
1,23
1,20
Grasa de Cerdo
2
Pasta de Sacha inchi
Harina de Trigo
Condimentos
Aditivos
3
4
5
6
Mano de Obra
7
Subtotal Egresos
INGRESOS
Cotización de
Hamburguesas
8
1: $ 3,96/Kg de Carne.
2: $ 1,00/Kg de Grasa
3: $ 3,00/Kg Pasta de Sacha inchi
4: $ 2,00/Kg de Harina de Trigo
5: $ 1,22/Tratamiento/Condimentos
6: $ 0,59/Tratamiento/Aditivos
7: $ 5/Tratamiento/Mano de Obra
8: $ 4,00/Kg de Hamburguesa R; 5,00/Kg de Hamburguesa SI
4. Conclusiones
1. Se determinó que mediante la utilización Plukenetia volubilis (Sacha Inchi) en un 10 % en
remplazo al peso en grasa para la elaboración de hamburguesas, se obtiene un mayor porcentaje
de proteína (20,86 %) y disminución de grasa (12,91 %).
2. La carga microbiológica encontrada en cuanto a Mohos y Levaduras y Coliformes Totales,
disminuyen con el empleo de Sacha Inchi, lo cual ubica al producto dentro de las normas
ecuatorianas (INEN), para la industrialización de este producto.
3. La hamburguesa del tratamiento 10 % de Sacha Inchi, obtuvo los mayores indicadores en
aceptabilidad e intención de compra del producto, por lo tanto es la más aceptada.
4. La hamburguesa del tratamiento 10 % de Sacha Inchi, presenta valores de Omega-3 de 16.82
%, de Omega-6 21.97 % y de Omega-9 34.88 %, y un alto nivel proteico, obteniéndose un
alimento funcional, que podría disminuir los riesgos de enfermedades cardiovasculares en los
consumidores.
5. La mayor rentabilidad se alcanzó al utilizar el 10 % de Sacha Inchi en la elaboración de
hamburguesas al determinarse un índice de Beneficio/Costo de 1.25 USD.
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
75
Bibliografía
Anaya (2006) (http://www.agenciaperu.com/reportes/2006/jul/sacha_inchi.html)
FRAZIER, W y WESTHOFF, D. Microbiología de los alimentos. Zaragoza-España.
Editorial Acribia, S. A., 1985., Pp. 356-359.
GARCÍA, H. (1992) Estudio de Sacha Inchi. Lima-Perú. Conferencias de investigaciones apoyadas
por Fundeagro 1988 – 1992. Tomo I. Proyecto de trasformación de la tecnología
agropecuaria. Pp. 61–63.
GARCÍA, J. (2008) Procesamiento y Preservación de la Carne I. Riobamba-Ecuador. Compendio.
Maestría en Industrias Pecuarias ESPOCH. Facultad de Ciencias Pecuarias. Profesor de la
Universidad Autónoma de Chihuahua México. Facultad de Zootecnia. Pp. 56-72.
GERSHOFF, S. (1995) Nutrition evaluation of dietary fat substitutes. Washington-Estados Unidos.
Nutrition Reviews. Vol. 53, No. 11. Pp. 11–12.
HAMAKER, E. y otros. (1992) Aminoacid and Fatty Acid Profil of the Inca Peanut (Plukenetia
volubilis. L). Iowa-Estados Unidos. En: American association of cereal chemist. Note. Vol.69.
No. 4. Pp. 461–465.
HÁZEN, S. y STOVESAND, P. (1980) Agroindustrias Amazónicas. Washington-Estados Unidos.
Editorial Amazon. Pp. 89.
INSTITUTO ECUATORIANO DE NORMALIZACIÓN (INEN). (2006) Quito-Ecuador. Carne fresca y
menudencias comestibles. Norma técnica ecuatoriana NTE INEN 2 346.
LARRAÑAGA, I. y otros. (1999) Control e higiene de alimentos. Barcelona-España. Editorial Cobra
S. L. Pp. 323.
MELGAREJO, I. y MAURY, M. (2002) Elaboración de Hamburguesa a partir de Prochylodus
nigricans “BOQUICHICO”. Iquitos-Perú. En: Revista Amazónica de Investigación Alimentaria,
Facultad de Ingeniería en Industrias Alimentaria, UNAP, Vol. 2, N° 1. Pp. 79–87.
OBREGÓN, L. (1993) “Obtención de sacha inchi (Plukenetia volubilis) en polvo secado por
atomización”. Facultad de Agronomía, Universidad Nacional Autónoma La Molina. Lima-Perú.
Tesis de Maestría.
ORGANIZACIÓN MUNDIAL DE LA SALUD (OMS). (2009) Buenos Aires-Argentina. Cumbre, Qué
está haciendo la OMS para ayudar a los países a mejor la inocuidad de los alimentos.
Pascual, G. y Mejía M. (2000) Extracción y caracterización de aceite de sacha inchi (Plukenetia
Volubilis L). Anales Científicos UNALM. 42:143-57
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
76
PELCZAR, R. y REID, R. (1979) Microbiología. La Habana-Cuba. Editorial Pueblo y Educación.
Pp. 476-478.
RAMOS, M. (2008) Características Físicas y Químicas de la Carne, Cambios que Ocurren Durante
Su Maduración, Microbiología y Conservación de la Carne. Riobamba-Ecuador. Compendio,
Maestría en Industrias Pecuarias ESPOCH, Facultad de Ciencias Pecuarias. Profesor de la
Universidad Técnica de Ambato. Facultad de Ingeniería en Alimentos. Pp. 58-63.
RANKEN, M. (1993) Manual de industrias de los alimentos.
Zaragoza-España. 2da edición.,
editorial Acribia S. A. Pp. 36-37.
SACHA INCHI. (2009/02/12) http://www.omegagelcaps.com/spanish/característica.html
SALAZAR, D. (2008) Productos Cárnicos. Ambato-Ecuador. Conferencia, Universidad Técnica de
Ambato, Facultad de Ingeniería en Alimentos. Pp. 14-20.
VÁZQUEZ, M. (2005) Alimentación y nutrición: Manual teórico-práctico. Quito-Ecuador. Editorial
Díaz de Santos. ISBN 84-7978-715-5. Pp. 46-48.
Velázquez, F., Julio César Vargas, Verónica Andrade, Daniela Baldeón, Janeth Sánchez. (2014)
Plukenetia volubilis L. (SACHA INCHI - TICASU) riqueza natural para la salud humana y valor
agregado en las carnes del cerdo criollo ecuatoriano en la Amazonia. HUELLAS DEL
SUMACO - Revista Socio Ambiental de la Amazonía ecuatoriana. Universidad Estatal
Amazónica. VOLUMEN 11. ISSN: 1390-6801.
YÁNEZ, E. y BIOLLEY. E. (1999) Sustitutos de grasas en la alimentación humana. MedellínColombia. Archivos Latinoamericanos de Nutrición. Vol. 49, N° 2. Pp. 101–103.
Enfoque UTE, V.6-N.2, Jun.2015, pp.59 - 76
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9663
Recibido (Received): 2015/05/02
Aceptado (Accepted): 2015/06/11
CC BY-NC-ND 3.0
Aproximación empírica para el diseño de planes de muestreo
simple por atributos bajo inspección normal basados en las
normas COVENIN 3133-1:2001 y MIL-STD-105E
(Empirical approach for single attributes sampling plans design
under normal inspection based on standards
COVENIN 3133-1:2001 and MIL-STD-105E)
Mairett Rodríguez-Balza1, Luis Pérez-Ybarra2, William Quintana-Rivero2
Resumen:
Se propone una regla empírica para la determinación del tamaño de muestra n a tomar en
función del tamaño del lote producido N, para un muestreo simple por atributos bajo inspección
normal basado en la normas COVENIN 3133-1:2001 y MIL-STD-105E; asimismo, se calculó el
número de aceptación c para un nivel de calidad aceptable dado, y se construyeron las curvas
características de operación correspondientes. Se obtuvieron dos ecuaciones de regresión
2
potenciales para calcular el tamaño de muestra con ajuste R de 99,91% y 99,38%, para
tamaños de lote N≤666 y N>666, respectivamente, adicionalmente, se diseñó un plan de
muestreo para un lote de tamaño 176.000 unidades con un nivel de calidad aceptable de
0,65% unidades defectuosas. El plan de muestreo propuesto presentó un tamaño de muestra
menor (n=560) al de la norma (n=800), con curva característica de operación muy similar al
plan de muestreo más próximo recomendado por la norma (n=500). Se recomienda la
aplicación de la aproximación empírica para diseñar planes de muestreos más económicos y
que a su vez sean cónsonos con las normas COVENIN 3133-1:2001 y MIL-STD-105E.
Palabras clave: tamaño del lote; tamaño de muestra; muestreo por atributos; número de
aceptación; curva característica de operación.
Abstract:
An empirical rule is proposed for determining the sample size n to be taken depending on the lot
produced size N for a single attributes sampling under normal inspection based on the
standards COVENIN 3133-1: 2001 and MIL-STD-105E; also, the acceptance number c for a
given level of acceptable quality was calculated, and the corresponding operating characteristic
curves were constructed. Two potential regression equations were obtained for calculation of
2
sample size to fit R of 99.91% and 99.38% for lot sizes N≤666 and N>666, respectively, in
addition, a sampling plan was designed for a lot size of 176,000 units with an acceptable level
of quality of 0.65% defectives units. The proposed sampling plan presented a smaller sample
size (n=560) than the standard (n=800), with operating characteristic curve very similar to the
closest sampling plan recommended by the standard (n=500). The application of the empirical
approach is recommended for the design of cheaper sampling plans which in turn are
consonant with the rules COVENIN 3133-1: 2001 and MIL-STD-105E.
Keywords: lot size; sample size; attributes sampling; acceptance number units; operating
characteristic curves.
1
2
Universidad Central de Venezuela, Maracay − Venezuela ([email protected])
Universidad de Carabobo, Maracay – Venezuela ({lmperez4, wfquintana}@uc.edu.ve)
78
1. Introducción
La norma COVENIN 3133-0-1997, define al plan de muestreo como un conjunto de reglas por
medio de las cuales se inspecciona un lote y se decide su aceptación o su no aceptación.
Además, señala que el método de inspección por atributos consiste en examinar un ítem o una
característica y clasificarla como “conforme” o “no conforme”. La decisión con relación al lote, se
toma contando el número de ítems no conformes o de no conformidades hallados en una muestra
aleatoria (Comisión Venezolana de Normas Industriales, 1995).
La inspección de materias primas, productos semiterminados o productos terminados, forma parte
importante del aseguramiento de la calidad (Pérez López, 1999), aunque su objetivo no es estimar
la calidad de los lotes, se puede asegurar con cierta probabilidad, que los productos obtenidos en
un proceso, son conformes con los criterios acordados entre el consumidor y el productor.
La norma COVENIN establece que para un determinado tamaño de lote y plan de muestreo, se
adjudican un tamaño de muestra a extraer, y adicionalmente, se propone un número máximo de
unidades no conformes para un nivel de calidad máximo dado. En la práctica, tales valores están
tabulados, en la Tabla 1 de la norma COVENIN 3133-1:2001 se establece que para un nivel de
inspección normal II (general), y para lotes de tamaño comprendido entre 150.001 y 500.000
unidades, debe extraerse una muestra de tamaño 800, ver Tabla 2-A de la norma COVENIN
3133-1:2001, en dicha tabla además, se establece que para el nivel de calidad aceptable de
0,65% el número máximo de unidades no conformes es 10, es decir, si aparecen 11 o más
unidades con defectos críticos en el lote, este debe rechazarse, reprocesarse o destruirse, según
sea el caso (Comisión Venezolana de Normas Industriales; 2001). Sin embargo, tanto los tamaños
de muestra a extraer como los niveles de calidad tolerables se dan en valores discretos, ver
Tablas 1 y 2-A de la Norma COVENIN 3133-1:2001, (Comisión Venezolana de Normas
Industriales, 2001; Department of Defense, 1989), más aún, los intervalos que definen los
tamaños de muestra a extraer tienden a ser muy amplios y aparecen saltos o “huecos” en la
asignación tanto de tamaños de muestra como de los niveles de calidad aceptable (Montgomery,
2004), por esta razón, el objetivo de este trabajo es proponer un ajuste empírico o función de
regresión que permita asignar tamaños de muestra en función del tamaño del lote dados por las
normas COVENIN 3133-1:2001 y MIL-STD-105E, y a partir del tamaño de muestra obtenido,
calcular el número de aceptación para un plan de muestreo por atributos simple bajo inspección
normal para un nivel de calidad aceptable dado, adicionalmente se diseñará un plan de muestreo
bajo las condiciones descritas para un lote de 176.000 unidades con un nivel de calidad aceptable
de 0,65%, a fin de ejemplificar el funcionamiento de la metodología propuesta.
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
79
2. Materiales y métodos
Los datos a partir de los cuales se realiza la propuesta corresponden a los tamaños de lote N,
tamaños de muestra n y niveles de calidad aceptable para el muestreo simple por atributos bajo
inspección normal presentes en la norma COVENIN 3133-1:2001 y MIL-STD-105E. Dado que los
valores de ambas normas son idénticos, en el resto del trabajo se hará referencia únicamente a la
norma COVENIN 3133-1:2001.
Las ecuaciones de regresión y los respectivos gráficos se realizaron utilizando el software MS
Excel 2010, el número de unidades no conformes tolerables, las curvas características de
operación y de potencia se calcularon utilizando el software Derive 6.0, ambos bajo ambiente
Windows.
3. Resultados y discusión
3.1. Tamaño de muestra
Las primeras tres columnas de la Tabla 1 muestran un resumen de los tamaños de muestra n para
el nivel de inspección normal II para un muestreo simple por atributos de la norma COVENIN
3133-1:2001, (Comisión Venezolana de Normas Industriales, 2001; Department of Defense,
1989), en la misma, se evidencia que tanto el tamaño de muestra como la amplitud de los
intervalos tienden a aumentar con el tamaño del lote N, este comportamiento parece indicar que
existe una relación o asociación matemática que define el tamaño de muestra en función del
tamaño del lote, sin embargo, tal expresión no aparece definida de forma explícita en la norma,
una forma de estimarla es hacer un ajuste empírico apoyándose en el análisis de regresión. Dado
que la tasa de crecimiento de los intervalos y el tamaño muestra aumenta con el tamaño del lote,
esta ecuación posiblemente sea de naturaleza potencial o exponencial.
Tabla 1. Tamaños de lotes y tamaños de muestra a extraer según la norma COVENIN.
NLoteinf
NLotesup
n
nestimado
Error
%|Error|
2
8
2
1,94496786
0,05503214
2,75160694
9
15
3
3,18980717
-0,18980717
6,32690581
16
25
5
4,76825416
0,23174584
4,63491678
26
50
8
8,22754001
-0,22754001
2,84425015
51
90
13
13,0668066
-0,06680664
0,51389723
91
150
20
19,5327967
0,46720327
2,33601636
151
280
32
31,9222857
0,07771429
0,24285715
281
500
50
50,3813735
-0,38137349
0,76274699
501
1200
80
79,4999124
0,50008758
0,62510948
1201
3200
125
116,705363
8,29463747
6,63570998
3201
10000
200
182,295148
17,7048516
8,8524258
10001
35000
315
297,661964
17,3380359
5,50413838
35001
150000
500
526,135044
-26,1350437
5,22700873
150001
500000
800
842,853259
-42,8532586
5,35665733
La Figura 1 muestra un primer ajuste para establecer una relación de regresión empírica entre las
variables x e y, la misma se realizó tomando como valor de la variable independiente x al límite
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
80
superior de los intervalos para los tamaños de los lotes, y como variable dependiente y al tamaño
de muestra propuesto por la norma. La variable x se seleccionó de esta manera ya que se desea
que el tamaño máximo de muestra a tomar en un intervalo dado coincida en lo posible con el valor
máximo de dicho intervalo propuesto por la norma. Dicha gráfica muestra que la relación existente
es de naturaleza potencial, y que si bien presenta un excelente ajuste de R2=96,58%, la tasa de
crecimiento tiende a ser mayor para tamaños de lote pequeños, de hasta 500 unidades,
denominado subconjunto 1 en la Figura 1, que para tamaños de lote mayores, denominado
subconjunto 2 en la Figura 1, si bien los desvíos de los datos de la función de regresión parecen
ser pequeños, no debe olvidarse que están medidos en escala logarítmica, por lo cual tales
diferencias, desvíos o errores de estimación, se inflan notablemente al aplicar antilogaritmos, por
esta razón se propone construir dos ecuaciones de regresión potencial, una para el subconjunto 1,
y otra para el subconjunto 2, a fin de minimizar estas desviaciones. Cabe destacar, que el tamaño
del lote N=500 es considerado en los cálculos de ambas ecuaciones de regresión para que se
tome en cuenta la información de todos los valores de la variable x de forma continua.
10000
Tamaño de muestra
Subconjunto 2
1000
y = 1,0564x0,5455
R² = 0,9658
100
Subconjunto 1
10
1
1
10
100
1000
10000
100000
1000000
Tamaño del lote
Figura 1. Ecuación de regresión para estimar el tamaño de muestra en función del tamaño del lote.
Nota: Ejes en escala logarítmica de base 10.
La Figura 2 muestra las ecuaciones de regresión obtenidas para estimar el tamaño de muestra a
extraer en función del tamaño del lote, en la misma se observa que al definir esta función con dos
ecuaciones, no solo aumenta el coeficiente de ajuste R2 para ambas ecuaciones, sino que
además se minimizan las desviaciones de los tamaños de muestra observados con respecto a la
línea de tendencia o tamaños de muestra estimados, en las tres últimas columnas de la Tabla 1 se
muestran los valores estimados para tales ecuaciones junto con el porcentaje de error relativo de
estimación cometido al estimar el tamaño de muestra a extraer en función del tamaño lote, los
mismos no difieren en más de 10% para ninguna de las observaciones tabuladas, lo cual
constituye una muy buena aproximación. Es necesario indicar que se definió como error a
ei  ni  nˆi , y como porcentaje de error relativo a %erelativoi  100 ei ni , siendo ni el tamaño de
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
81
muestra propuesto por la norma COVENIN 3133-1:2001 para el i-ésimo límite superior de los
intervalos de tamaño de lotes, y nˆ i el tamaño de muestra estimado a partir de las ecuaciones de
regresión propuestas, ver Tabla 1, columnas 3 a la 6.
1000
Tamaño de muestra
y = 4,9565x0,3914
R² = 0,9939
100
y = 0,3786x0,787
R² = 0,9991
10
1
1
10
100
1000
10000
100000
1000000
Tamaño del lote
Figura 2. Ecuaciones de regresión para estimar el tamaño de muestra en función del tamaño del lote.
Nota: Ejes en escala logarítmica de base 10.
El sistema de ecuaciones formado por las expresiones estimadas mostradas en la Figura 2 se
resuelve o se iguala para el tamaño de lote N  666,3571  666 , haciendo de esta manera a la
función obtenida para estimar el tamaño de muestra n continua en ese punto, esto garantiza que
los tamaños de muestra estimados no presenten saltos abruptos y provengan de una función que
presenta una gráfica suave, lo cual adicionalmente otorga elegancia a la aproximación empírica
desarrollada en este trabajo.
A partir de esta información se propone para este esquema de muestreo la siguiente regla
empírica, sea N el tamaño del lote producido y sea n el tamaño de la muestra a ser extraída, este
último vendrá dado por:
 0,3786N 0,787
n
0,3914
4,9565N
N  666
N  666
(1)
Para el caso particular analizado con un tamaño de lote N=176.000 unidades, el tamaño de
muestra a extraer por la ecuación (1) quedaría
n   4,9565 176.000 
0,3914
 560,1041  560 unidades
El cual es significativamente menor al propuesto por la norma para el ejemplo desarrollado,
n=800, este resultado no es sorprendente, ya que el tamaño del lote se encuentra más cercano a
150.000 que 500.000 unidades producidas, es de esperarse entonces que el tamaño de muestra
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
82
adjudicado sea un valor más cercano a n=500 que a n=800, (Comisión Venezolana de Normas
Industriales, 2001; Department of Defense, 1989).
3.2. Número máximo de unidades no conformes toleradas
Una vez determinado el tamaño de muestra a extraer, se desea calcular cuántos elementos que
presenten defectos críticos pueden ser tolerados, es decir, el número de aceptación c suponiendo
que la proporción de unidades no conformes del proceso pad es el adecuado, en ese sentido, sea
n el tamaño de muestra, x la cantidad de unidades con defectos críticos, c  xc el número de
aceptación o número máximo de objetos con defectos críticos tolerados para el nivel de calidad
aceptable pad, 1   el nivel de confianza del plan de muestreo y F   la función de probabilidad
acumulativa, bajo tales condiciones, Montgomery (2004), indica que xc viene dado por

c  xc  max 

x

x
n
  i  p
i
ad
1  pad 
i 0
n i

 F  xc   1    ; x, i  0, 1, ...


(2)
Para el caso particular analizado, es decir, para el nivel de calidad aceptable de 0,65%,
pad=0,0065, y para el nivel de confianza de 99%, la expresión (2) queda

xc  max 

x

x

i 0

 560 
i
560  i
 0,99 

  0,0065  1  0,0065 

 i 

Utilizando el software Derive 6.0, (Kutzler & Kokol-Voljc, 2003), se obtiene que para x=8,
F(8)=0,9878, mientras que para x=9, F(9)=0,9958, lo cual indica que xc=8; es decir, se aceptan
hasta 8 unidades con defectos críticos y aún puede considerarse con un nivel de hasta 99% de
confianza que el porcentaje de productos defectuosos del lote es de 0,65%; por otra parte, de
aparecer 9 o más unidades con defectos críticos, se supondrá que el porcentaje de objetos
defectuosos en el lote es superior al nivel de calidad aceptable de 0,65%. Estos resultados son
cónsonos con la norma COVENIN 3133-1:2001, ya que xc corresponde un valor que se encuentra
a medio camino entre los valores tabulados por esta norma, es decir, este valor crítico es mayor
que el establecido por la norma para n=500 pero menor al establecido para n=800, ver Tabla 2-A
de la norma COVENIN 3133-1:2001.
Así, el plan de muestreo propuesto para el ejemplo desarrollado en este trabajo queda
estructurado de la siguiente manera, para el tamaño del lote considerado de N=176.000, extraer
una muestra de n=560 unidades, y considerar que el nivel de calidad aceptable de 0,65%
unidades con defectos críticos no se cumple si aparecen 9 o más unidades con defectos críticos
en la muestra, o dicho de otra forma, se aceptan hasta un total de xc=8 unidades con defectos
críticos en la muestra.
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
83
3.3. Curva de potencia y curva característica de operación
Cytel Software (2010), indica que la función potencia P(p) basada en la distribución binomial, la
cual es aplicable al plan de muestreo con proporción de unidades defectuosas o nivel de calidad p
del lote para el valor crítico o número de aceptación xc, viene dada por
P  p 
n
n
  i  p 1  p 
i
n i
, 0  p 1
(3)
i  xc 1
Es decir, corresponde a la probabilidad de rechazar un lote con nivel de calidad o proporción de
unidades defectuosas p, dado el número de aceptación xc. Asimismo, Canavos, (1988), indica que
la función característica de operación CO(p) está dada por:
CO  p   1  P  p 
(4)
Para el ejemplo considerado, la función de potencia dada por (3) está dada por:
P  p 
560
 560  i
560  i
 p 1  p 
i 
 
i 9
(5)
Los valores para la curva característica de operación dada por (4) se obtienen por diferencia. Note
que la expresión (5) contempla una cantidad apreciable de cálculos basados en la distribución
binomial para un conjunto de valores p crecientes y cada vez más alejados de la proporción de
artículos no conformes del proceso pad.
La Figura 3 muestra las curvas de potencia y curva característica de operación calculadas para el
ejemplo desarrollado, n=560, y para los tamaños de muestra n=500 y n=800 mostrados en la
norma COVENIN 3133-1:2001; dado que la potencia de una prueba de hipótesis estadística
aumenta con el tamaño de muestra si se mantiene fijo el nivel de significación (Cárdenas Castro y
Arancibia Martini, 2014), es natural que la potencia de la prueba sea mayor para n=800, asimismo,
dado que el tamaño de muestra del ejemplo n=560 es un valor cercano a n=500, no es de
extrañar que las curvas de potencia para estos tamaños de muestra sean parecidos, aunque
ninguno de los dos es uniformemente más potente, así se observa que inicialmente hay
ligeramente más potencia para n=500 pero alrededor de p=0,2 el comportamiento cambia, esto
puede deberse a la naturaleza discreta de la distribución binomial y a la forma en la cual se
escoge xc, es decir, por aproximaciones sucesivas al nivel de confianza de 99%, sin embargo, en
la práctica, parece natural que las curvas de potencia para los tamaños de muestras de tamaños
similares sean similares entre sí, por otra parte, las curvas características de operación, al estar
definidas por diferencia, presentan el comportamiento contrario.
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
84
P500
P560
P800
CO500
1
1
0,9
0,9
0,8
0,8
0,7
0,7
0,6
0,6
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
0
CO560
CO800
0
0
0,01
0,02
0,03
0,04
0
0,01
0,02
p
0,03
0,04
p
Figura 3. Curvas de potencia y curva característica de operación del ejemplo y para los tamaños de
muestra establecidos en la norma. Nota: P500, P560 y P800: Curvas de potencia para n=500, 560 y 800,
respectivamente. CO500, CO560 y CO800: Curva características de operación para n=500, 560 y 800,
respectivamente.
4. Conclusiones y Recomendaciones
Los autores consideran que esta metodología puede utilizarse para establecer el tamaño de
muestreo particularizado para tamaño de lotes y además construir la curva de potencia respectiva,
y dado que el tamaño de muestra y los valores críticos son cónsonos con la norma COVENIN
3133-1:2001 y MIL-STD-105E, no se estarían violando estas normas y se podrían diseñar planes
de muestreos particularizados, más sencillos y económicos.
Bibliografía
Canavos, G. C. (1988). Probabilidad y estadística: aplicaciones y métodos. México: McGraw-Hill.
Cárdenas Castro, M. y Arancibia Martini, H. (2014). Potencia estadística y cálculo del tamaño del
efecto en G*Power: Complementos a las pruebas de significación estadística y su
aplicación en psicología. Salud & Sociedad, 5(2), 210-224.
Cytel Software. (2010). Statxact 9. User manual. Statistical software for exact nonparametric
inference. Cambridge, MA: Cytel Inc.
Kutzler, B. & Kokol-Voljc, V. (2003). Introduction to Derive 6. A book for learning to use Derive 6
with hints on how to teach with it. Linz, Austria: Kutzler & Kokol-Voljc OEG.
Montgomery, D. (2004). Control estadístico de la calidad. México: Editorial Limusa S.A. De C.V.
Pérez López, C. (1999). Control estadístico de la calidad: teoría, práctica y aplicaciones
informáticas. México: Editorial RA-MA.
USA. Department of Defense. (1989). Military Standard MIL-STD-105E. Sampling procedures for
inspection by attributes. Washington, DC: Department of Defense.
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
85
Venezuela. Comisión Venezolana de Normas Industriales. (2001). NORMA COVENIN 31331:2001. Procedimientos de muestreo para inspección de atributos. Parte 1: Esquemas de
muestreos indexados por nivel de calidad de aceptación (NCA) para inspección lote por
lote. Caracas: FONDONORMA.
Venezuela. Comisión Venezolana de Normas Industriales. (1995). NORMA COVENIN-ISO: 90044:1995. Gestión de la calidad y elementos del sistema de la calidad. Parte 4: Lineamientos
para el mejoramiento de la calidad. Caracas: FONDONORMA.
Enfoque UTE, V.6-N.2, Jun.2015, pp.77 - 85
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9363
Recibido (Received): 2015/03/18
Aceptado (Accepted): 2015/05/29
CC BY-NC-ND 3.0
Reglas de asociación en el cómputo de utilización de libros en
una biblioteca universitaria
(Association rules in computing the use of books in a
university library)
María Alejandra Malberti Riveros1, Raúl Oscar Klenzi1
Resumen:
Este trabajo recrea una propuesta destinada a evaluar la utilización de diferentes códigos de
libros en una biblioteca universitaria. A partir de los datos de circulación de materiales
almacenados en el sistema de biblioteca, el modelo aplica un mecanismo de estadísticas de
utilización y un mecanismo de descubrimiento de reglas de asociación. Las estadísticas de
utilización son computadas en base al grado de importancia, o pertinencia, de cada código
respecto a un área de conocimiento, mientras que las reglas de asociación brindan apoyo para
determinar la utilización final de los diferentes códigos. En el proceso se tiene en cuenta que los
datos almacenados en el sistema corresponden a ejemplares solicitados en calidad de
préstamo, renovación o consulta. El estudio introduce una alternativa de descubrimiento de
conocimiento en datos, tendiente a enriquecer la gestión de una biblioteca universitaria.
Palabras clave: Minería de Datos; Reglas de Asociación; Estadísticas de uso; Biblioteca
Universitaria; Código Dewey
Abstract:
This work recreates a proposal to evaluate the usage of different books categories in a
university library. The model employs a mechanism to carry out usage statistics and a
mechanism to carry out discovering association rules, from use data stored in the library system.
Usage statistics are computed based on the degree of importance, or relevance, with respect to
an area of knowledge, and association rules provide support to determine the final use of the
various categories. In the process we take into account that stored data correspond to books
requested on loan, renewal or consultation. The study presents knowledge discovery in data,
aiming to enhance the management of a university library.
Keywords: Data Mining; Association Rules; Usage statistics; University Library; Dewey code
1. Introducción
Una gran cantidad de datos acumulados en las bases de datos de organizaciones, pueden
esconder conocimientos valiosos y útiles para la toma de decisiones. La Minería de Datos también
conocida como Descubrimiento de Conocimiento en Bases de Datos –Knowledge Discovery in
Databases: KDD-, significa un proceso de extracción no trivial, de información implícita, útil,
previamente desconocida, desde los datos de una base de datos (Chen, 1996) (Agrawal, 1993).
De acuerdo con el Gartner Group (Larose, D, 2005, p.12) "La minería de datos es el proceso de
descubrir nuevas correlaciones significativas, patrones y tendencias, tamizando grandes
cantidades de datos almacenados en depósitos, usando tecnologías de reconocimiento de
1
Universidad Nacional de San Juan, San Juan – Argentina, ({amalberti, rklenzi}@unsj-cuim.edu.ar)
87
patrones, así como técnicas estadísticas y matemáticas." Dentro de ella, su estrategia de
descubrimiento de reglas de asociación propone encontrar conjuntos de elementos que coocurren juntos frecuentemente en una base de datos (Agrawal, 1993) (Chen, 1996, p.7)(Hipp,
2000)(Hahsler, 2006).
La incorporación de esta tecnología en el ámbito de las bibliotecas ha comenzado a adquirir
fuerza en los últimos años. Tanto es así que Nicholson define el término Bibliomining (Nicholson,
2006, p. 790) como “la combinación de minería de datos, bibliométricas, herramientas
estadísticas, y de reportes, usadas para extraer patrones, basados en comportamientos, de los
sistemas de biblioteca“. Coincidente con esta idea la asociación ARL -Association of Research
Libraries- presenta el trabajo realizado por Barbara Mento (Mento, 2003). Esta publicación resulta
de una investigación cuyo objetivo era determinar el uso de la tecnología de minería de datos en
las actividades realizadas por distintas bibliotecas. De 124 bibliotecas consultadas, respondieron a
la investigación 65. Si bien al momento de la investigación sólo 26 usaban tecnología de minería
de datos, las restantes consideraban a esta tecnología muy importante. De las 26 bibliotecas, 18
aplicaban tecnología de minería de datos ya sea para facilitar las tareas administrativas o con
propósitos estratégicos. Algunas bibliotecas mencionaron beneficios en la esfera administrativa a
partir de la minería de datos, ya que esta tecnología ayudó al desarrollo de la colección, al
presupuesto, a las decisiones de desarrollo de la Web, a valorar bases de datos y otros recursos,
a determinar las necesidades de los usuarios, a monitorear el desempeño y usabilidad del
sistema, a realizar pronósticos y establecer políticas y a mejorar la seguridad de la Web. En las
conclusiones, la autora manifiesta que “Las bibliotecas que están usando minería de datos lo
están haciendo principalmente para propósitos administrativos tales como facilitar la recolección y
el análisis de, por ejemplo, la circulación, la adquisición, el uso de Web, y otros patrones de datos
diversos. El objetivo es generalmente reforzar la toma de decisión y las operaciones internas
propias de la biblioteca. Mientras que las actividades más importantes de la minería de datos
residen en departamentos académicos e involucran investigación académica, hay conciencia y
entusiasmo por las posibilidades de la minería de datos como una herramienta para bibliotecas de
ARL.". (Mento, 2003,p.13).
Por su parte Galluzzi (Galluzzi, 2014) expresa que los bibliotecarios deben conducir las bibliotecas
hacia las direcciones más innovadoras que han surgido en los últimos años y seguir siendo
abiertos al cambio y lo más flexible posible.
Sue McKnight describe en (Dale, 2011) la evolución de la biblioteca académica a través del
tiempo, lo que demuestra la resiliencia y capacidad de adaptación de los servicios bibliotecarios y
de gestión de bibliotecas destacando el importante papel que las bibliotecas académicas tienen
en la creación y el apoyo a los entornos digitales de aprendizaje, y su tendencia a participar en
ellos hoy y en el futuro.
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
88
Si bien existe una amplia variedad de obras que tratan sobre minería de datos, no ocurre lo
mismo con bibliomining. Entre los trabajos que aplican minería de datos a los datos de una
biblioteca se encuentra el modelo KDBM –Knowledge Discovery Based Model- (Wo, 2004),
diseñado para descubrir conocimiento sobre la utilización de las distintas categorías de materiales
de una biblioteca universitaria. Este modelo de asignación de presupuesto, se sustenta en la idea
de que nuevas asignaciones presupuestarias deben incorporar el conocimiento referido a la
utilización realizada anteriormente de los recursos disponibles en la biblioteca.
La Facultad de Ciencias Exactas, Físicas y Naturales de la Universidad Nacional de San Juan,
FCEFN-UNSJ, y en particular su biblioteca, han transitado un proceso de evaluación institucional.
La evaluación de las instituciones universitarias del sistema universitario argentino se apoya en
los conceptos centrales que surgen del artículo 44º de la Ley de Educación Superior. En el
documento Lineamientos para la Evaluación Institucional (Resolución CONEAU 094/97) se
expone la concepción general de la evaluación institucional que posee la CONEAU-Comisión
Nacional de Evaluación y Acreditación Universitaria-, el marco normativo y las características de
las evaluaciones externas que se realizan. En el mencionado documento se expresa que
“Efectivamente, para poder llevar a cabo las tareas de investigación y docencia es central tener
bibliotecas completas y actualizadas, con políticas de adquisición ajustadas a las necesidades de
la institución y sus miembros.” (Lineamientos para la evaluación institucional, p. 20). “Toda
evaluación, en cualquiera de sus fases, implica la utilización de medios cuantitativos y cualitativos,
que son complementarios y de ninguna manera exclusivos ni aislados.” (Lineamientos para la
evaluación institucional, p. 24). Además la Resolución CONEAU 315/00, que fija las pautas
generales para la elaboración de los informes de evaluación externa, reconoce explícitamente
para la variable Servicios de Biblioteca, de Información e Informáticos, las dimensiones:
Presupuesto anual, Servicio e infraestructura, Catalogación y estadísticas, Circulación y
préstamos, Informática entre otras.
Por su parte la Norma ISO 11620 -Norma internacional relacionada con la evaluación de
bibliotecas de todo tipo- propone un conjunto de indicadores de desempeño entre los que se
encuentran los relacionados con el uso, recuperación y préstamos de documentos. Para recabar
los datos necesarios para el cómputo de esos indicadores la citada norma propone,
explícitamente, la utilización de diferentes métodos entre los que cita el uso de los registros del
sistema automatizado.
En conjunto el proceso de evaluación institucional, el marco regulatorio establecido por CONEAU,
la Norma ISO-11620, los planes estratégicos, consideraciones y sugerencias realizadas por parte
de la IFLA-International Federation of Library Associations and Institutions-, el reconocimiento del
profesional bibliotecario como usuario-beneficiario de la tecnología de Minería de Datos en su
actuación profesional y el modelo KDBM, han motivado al desarrollo de una propuesta referente
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
89
al cómputo de utilización efectiva de los materiales disponibles, con el propósito de asistir al
proceso de gestión de los recursos de una biblioteca universitaria, especialmente en instancias en
las que se necesitan datos objetivos que apoyen decisiones referentes a la adquisición de nuevos
materiales, A la vez, se promueve la incorporación y el reconocimiento de las potencialidades de
las nuevas tecnologías, como la Minería de Datos, en entornos no tradicionales tal es el caso de
bibliotecas.
En la sección 2 se describe el proceso realizado para el cómputo de utilización de cada categoría
2
de libros, o códigos Dewey , en base a su estadística de utilización y a su utilización conjunta con
otras categorías. En la sección 3 se discuten los resultados obtenidos y en la sección 4 se
presentan las conclusiones.
2. Materiales y Métodos
Dentro de la minería de datos, la estrategia de descubrimiento de reglas de asociación propone
encontrar conjuntos de elementos que co-ocurren juntos frecuentemente en una base de datos
(Agrawal, 1993)(Chen, 1996)(Hipp, 2000)(Hahsler, 2006).
La biblioteca de la FCEFN-UNSJ registra en el sistema MicroISIS todos los movimientos
(préstamos, devoluciones, renovaciones y consultas) de su material librario. En esta biblioteca se
aplica el Sistema de Clasificación Decimal Dewey para la catalogación de su colección. A partir de
considerar que cada transacción registrada en el sistema, consiste de los códigos Dewey
correspondientes a los libros (ejemplares) –más de uno-, gestionados por un socio- Número de
Socio- en una misma visita –Fecha- a la biblioteca, se adaptaron las definiciones del modelo
matemático de reglas de asociación al ámbito de la citada biblioteca:
D  {d1 , d 2 ,, d m } conjunto de los códigos Dewey correspondientes a los libros de la biblioteca
de la FCEFN,
T  {t1 , t 2 ,, t n } conjunto de transacciones, en el que cada transacción t i  D 1  i  n, consiste
de los códigos Dewey correspondientes a los libros requeridos por un socio en una sola visita a la
biblioteca.
2
La Clasificación Decimal Dewey–DDC, es un sistema desarrollado por Melvil Dewey en 1876, que intenta
organizar todo el conocimiento en diez clases principales. Cada clase principal tiene diez divisiones, y cada
división tiene diez secciones, por lo que el sistema puede ser resumido en 10 clases principales, 100
divisiones y 1000 secciones. Las obras son clasificadas principalmente por el tema al que pertenecen,
produciendo números de clasificación no menores de tres dígitos; mientras más dígitos integran un
determinado código, mas especificidad se logra en la catalogación.
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
90
La implicación X  Y es una Regla de Asociación donde X  D , Y  D , X  Y   y
X  Y  t i , esto es, el conjunto de códigos Dewey formado por aquellos que corresponden al
antecedente o al consecuente, no contiene códigos repetidos, y debe estar contenido o ser igual a
alguna de las transacciones pertenecientes a T .
En el marco soporte-confianza (Agrawal, 1993)(Brin, 1997)(Silverstein, 1998), la búsqueda de
reglas de asociación adopta los factores soporte y confianza para evaluar las reglas descubiertas.
La regla X  Y tiene soporte s en el conjunto de transacciones T , 0  s  1 , si s% de las
transacciones de T contienen tanto a X como a Y . El soporte puede ser considerado como la
probabilidad de que las transacciones contengan un conjunto de ítems.
soporte( X )  P(X )
En nuestro trabajo, el conjunto está formado por los códigos Dewey que conforman el
antecedente y/o el consecuente de la regla de asociación:
soporte(XY )  soporte(X Y )  P(X Y )
La regla X  Y se mantiene en el conjunto de transacciones T , con factor de confianza c ,
0  c  1 , si c% de las transacciones de T que satisfacen X también satisfacen Y ; esto es, el
porcentaje de transacciones que contienen a X e Y - X  Y - respecto al número total de
transacciones que contienen X .
confianza(X Y ) 
soporte(X  Y )
soporte(X)

P(X  Y )
P(X)
La confianza se define como la probabilidad de que las transacciones que contienen el
antecedente de la regla, también contengan el consecuente; esto es, la probabilidad de que
ocurra Y dado que ya ocurrió X. La confianza puede ser considerada, entonces, como un
 
estimador de la probabilidad condicional P Y .
X
El modelo KDBM, que consiste en una propuesta para evaluar la utilización de las diferentes
categorías de materiales en una biblioteca universitaria, incorpora un mecanismo de estadísticas
de circulación y un mecanismo de descubrimiento de reglas de asociación. Las estadísticas de
circulación son computadas en base a la “fuerza semántica”, o pertinencia, de las categorías de
materiales solicitados por los socios de la biblioteca, respecto a los departamentos involucrados
en los préstamos. Las reglas de asociación, que reflejan la correlación entre pares de categorías
de materiales, brindan el apoyo adecuado para determinar la importancia de las categorías
utilizadas. En este contexto, una regla de asociación toma la forma AB(,), donde A y B son
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
91
categorías de materiales y  y  son soporte y confianza respectivamente. Por ejemplo, la regla
de asociación “Sistemas  Organizaciones y Administración (0.25, 0.33) “, es interpretada como:
“ si materiales en la categoría Sistemas fueron pedidos en una transacción, materiales de
Organizaciones y Administración fueron también pedidos en la misma transacción con un soporte
de 0.25 y una confianza de 0.33” (Wo, 2004, p.714).
La utilización de cada categoría de material es computada por medio de la expresión:
k
MU ( A)  nA   nk * ( * soporte   * confianza )
(1)
1
donde MU es utilización y A una categoría de material representada por su código Dewey
nA : estadística de utilización de la categoría A
nk : estadística de utilización de la k-ésima categoría que puede producir A – esto es kA
 : intensidad de soporte
soporte: valor de soporte de la regla kA
 : intensidad de confianza
confianza: valor de confianza de la regla kA
A partir de los movimientos registrados en el sistema durante un año, y de (1), se calculó la
utilización de cada código Dewey en base a su circulación individual y a su circulación conjunta
con otros códigos.
Si bien la FCEFN tiene cuatro departamentos académicos: Geofísica-Astronomía, Biología,
Informática, y Geología, en particular se seleccionaron los movimientos realizados por socios de
la biblioteca vinculados al Departamento de Informática. Como resultado se obtuvieron 8649
registros concernientes a los préstamos, renovaciones, devoluciones y consultas de libros,
realizadas por alumnos y docentes del citado departamento.
2.1. Determinación de pertinencia o fuerza semántica
Se confeccionaron 152 encuestas distintas destinadas a docentes y alumnos del último año de las
carreras de cada uno de los 4 departamentos de la FCEFN, las que fueron distribuidas
proporcionalmente según el uso que cada departamento realizó de la biblioteca durante un año.
Esto llevó a destinar 54 encuestas para Biología, 15 para Geofísica, 40 para Geología y 43 para
Informática - Tabla 1.
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
92
Tabla 1. Distribución de las encuestas entre referentes de distintos departamentos
Departamentos Académicos
Geofísica
Geología
Biología
Informática
Total de
encuestados
Docente Alumno Docente Alumno Docente Alumno Docente Alumno
Cant.
Total por
Depart.
6
9
15
12
28
40
16
38
54
14
29
43
152
Asimismo, se consideraron los 302 códigos Dewey presentes en los movimientos registrados en
el Sistema de Biblioteca durante el año tratado. A cada encuestado no se le presentaron códigos,
sino diversos títulos de bibliografías catalogados bajo esos códigos. Cada encuesta contiene 20
títulos, los que multiplicados por las 152 encuestas permitieron obtener alrededor de 10
respuestas, provenientes de 10 encuestados distintos, por cada uno de los 302 códigos Dewey.
Cabe mencionar que tanto la distribución de los títulos entre las encuestas, como de las
encuestas entre los referentes de los departamentos, fue aleatoria. En la Figura 1 se muestra una
de las encuestas respondida, en esta oportunidad, por un docente.
Figura 1. Encuesta respondida por un docente del Departamento de Informática
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
93
El procesamiento de las encuestas se realizó por medio de una planilla de cálculo. Las X se
reemplazaron por los siguientes valores: columna Pertinencia Total por valor 0,4; columna
Pertinencia Alta por valor 0,3; columna Pertinencia Media por valor 0,2; columna Pertinencia Baja
por valor 0,1 y columna Pertinencia Nula por valor 0. Dado que diferentes títulos bibliográficos
corresponden a un mismo código Dewey, el valor representativo de pertinencia de ese código
para un área de conocimiento particular, se obtuvo mediante el cálculo de la mediana desde las
respuestas obtenidas de referentes de ese área. Se computa la mediana, por representar los
valores numéricos procesados valores semánticos inherentes a las pertinencias brindadas por
cada encuestado.
Para el cómputo de la mediana se ordenaron los valores de pertinencia asociados a un código
Dewey de mayor a menor, luego se podaron los extremos hasta alcanzar un único resultado
representativo de ese código Dewey.
En la Tabla 2 se pueden apreciar las respuesta brindadas, para el Dewey 005.71, por
encuestados pertenecientes a diversas áreas de conocimiento respecto de la pertinencia entre el
título del libro y las carreras en las que el encuestado trabaja. La columna 2 tiene el número de
encuesta en la que se ha obtenido la respuesta considerada, siendo la número 6 la presentada en
la Figura 1.
En el caso del Dewey considerado, 005.71, el valor de pertinencia obtenido desde el cálculo de la
mediana de las respuestas de referentes del área Informática es 0,3 (Alta).
2.2. Generación de estadísticas de utilización
El valor de estadística de utilización de cada código Dewey surgió de multiplicar la cantidad de
veces que dicho código ocurrió en préstamos, renovaciones y consultas, por su fuerza semántica.
Se computó nA de (1), pero considerando los códigos Dewey distintos ocurridos en los préstamos,
renovaciones y consultas durante el año tratado.
De los códigos analizados, 55 tenían valor cero para estadísticas de utilización. Asimismo cada
uno de ellos había ocurrido entre 1 y 887 veces, pero en promedio la presencia de cada código en
las solicitudes de libros realizadas en el año fue de 47 veces.
2.3. Generación de asociación de utilización
La asociación de utilización de un código Dewey toma en cuenta las reglas de asociación en las
que dicho código participa como consecuente.
A partir de (1), la circulación conjunta se evaluó en base a las estadísticas de utilización de los
códigos -k-, que pueden producir el código en cuestión –A, esto es reglas de asociación de la
forma kA. La circulación conjunta es la suma de las estadísticas de utilización de todos los
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
94
códigos k, ponderadas éstas por su soporte -que expresa la probabilidad de ocurrencia de la
regla-, y confianza -que refiere a la probabilidad de ocurrencia del código A, habiendo ocurrido k.
Si bien en (1) aparecen los factores  - intensidad de soporte, y  - intensidad de confianza,
éstos refieren a valores establecidos por el usuario de la tecnología en base a su experiencia,
pero en este caso ambos fueron omitidos pues no se disponía de información sobre los mismos.
Tabla 2. Respuestas obtenidas para Títulos asociados al código Dewey 005.71
Nº Encuesta
Dewey
005.71
(área de
conocimiento
del
encuestado)
Total
Alta
Media
Baja
4
6
X
PROGRAMACION DE ACTIVE
SERVER PAGES
X
HTML DINAMICO, ASP Y
JAVASCRIPT A TRAVES DE
EJEMPLOS
(Informática)
005.71
8
(Informática)
005.71
10
PROGRAMACION DE ACTIVE
SERVER PAGES
(Geología)
005.71
12
X
(Geofísica)
005.71
14
16
X
HTML DINAMICO, ASP Y
JAVASCRIPT A TRAVES DE
EJEMPLOS
(Informática)
005.71
18
X
(Geofísica)
005.71
20
22
(Informática)
PROGRAMACION DE ACTIVE
SERVER PAGES
HTML DINAMICO, ASP Y
JAVASCRIPT A TRAVES DE
EJEMPLOS
(Geología)
005.71
HTML DINAMICO, ASP Y
JAVASCRIPT A TRAVES DE
EJEMPLOS
PROGRAMACION DE ACTIVE
SERVER PAGES
(Geología)
005.71
Título
HTML DINAMICO, ASP Y
JAVASCRIPT A TRAVES DE
EJEMPLOS
(Biología)
005.71
Nula
X
PROGRAMACION DE ACTIVE
SERVER PAGES
Cada movimiento registrado en el sistema corresponde a un préstamo, renovación, devolución o
consulta de un libro por parte de un socio de la biblioteca. Ahora bien, si cada regla de asociación
tiene dos códigos Dewey, correspondientes al antecedente y al consecuente, surge entonces el
siguiente interrogante ¿Son las dieciséis combinaciones de movimientos de ejemplares,
convenientes para el análisis propuesto? , en otras palabras ¿Qué combinaciones de movimientos
son significativas al momento de seleccionar pares de códigos Dewey que representen posibles
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
95
reglas de asociación relevantes? De las dieciséis alternativas posibles de pares, las
combinaciones de movimientos relevantes aceptadas en este trabajo para el cómputo de la
asociación de utilización son las marcadas con X en la Tabla 3. Esta elección se basó en la
observación directa de las acciones concretas que el personal de la biblioteca realiza al atender
las solicitudes conjuntas de libros efectuadas por cada socio al momento de asistir a la biblioteca.
Tabla 3. Combinaciones de movimientos reconocidas en las reglas de
asociación
Combinaciones de movimientos
posibles
Combinaciones de movimientos
aceptadas
Devolución, Préstamo
Devolución, Renovación
Devolución, Consulta
Préstamo, Devolución
Préstamo, Renovación
X
Préstamo, Consulta
X
Renovación, Devolución
Renovación, Préstamo
X
Renovación, Consulta
X
Consulta, Devolución
Consulta, Préstamo
X
Consulta, Renovación
X
Devolución, Devolución
Préstamo, Préstamo
X
Renovación, Renovación
X
Consulta, Consulta
X
La tarea encarada requería no solo reconocer reglas de asociación conformadas por códigos
Dewey sino que, además, tanto el antecedente como el consecuente de cada una de las reglas
debían estar involucrados en los pares de movimientos de materiales previamente aceptados Tabla 3-.
Si bien Weka, R y Rapidminer proveen algoritmos de descubrimiento de reglas de asociación,
ninguno de ellos contempla esta situación. Es así que, por medio de SQL los 8649 registros
almacenados en el sistema se agruparon en 1974 transacciones, a partir de las que se
construyeron 5492 reglas de asociación.
3. Resultados y discusión
Si bien en el sistema de biblioteca estaba registrado el uso de 302 códigos Dewey, solo 164 de
ellos correspondían a movimientos realizados por socios pertenecientes al Departamento de
Informática. En esta instancia se computó la utilización de esos 164 códigos Dewey, a partir de su
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
96
estadística de utilización y de su asociación de utilización. La relación entre los valores
computados de utilización, estadística de utilización y asociación de utilización, para 53 de los 164
códigos es mostrado en la Figura 2.
Asociación de Utilización
Estadística de Utilización
Utilización
800
700
600
500
300
200
100
0
001.64
003
003.3
003.5
004
004.0151
004.02
004.03
004.06
004.0711
004.09
004.165
004.21
004.22
004.6
004.62
004.66
004.67
004.68
004.69
005.1
005.10685
005.11
005.13
005.133
005.133B
005.133C
005.133C++
005.133D
005.133F
005.133J
005.133L
005.133LI
005.133P
005.133PR
005.133TP
005.133V
005.136
005.14
005.26
005.265
005.3
005.362
005.362V
005.369A
005.369E
005.369O
005.369P
005.369W
005.369WP
005.43
005.446
005.4469L
005.453
Utilización
400
Códigos Dewey
Figura 2. Utilización - Estadística de Utilización - Asociación de Utilización
Por ejemplo, la estadística de utilización, nA de (1), de los códigos 005.1, 005.133C y 005.43 es
142.8, 354.79 y 152; mientras que su asociación de utilización, nk de (1), es 167.71, 335.22 y
171.93 respectivamente. La descripción de cada código Dewey contenido en la Figura 2 es
presentada en la Tabla 4, conjuntamente con su valor de utilización - MU de (1)-, y el porcentaje
de asociación de utilización computado.
Tabla 4. Descripción-Utilización -% Asociación de Utilización de Figura 2
Dewey
Descripción
001.64
Conocimiento. Procesamiento digital
003
Utilización
% Asociación de
Utilización
respecto a
Utilización
174,63
56,02%
Sistemas. Investigación operativa
48,96
63,44%
003.3
Modelos y simulación por computador
16,72
51,57%
003.5
Teoría de la comunicación y control
0,80
50,20%
004
Ciencias de la Computación. Procesamiento de
Datos.
42,54
56,98%
004.0151
Procesamiento electrónico de datos
1,57
80,85%
004.02
Informática. Manuales
28,63
61,23%
004.03
Informática.Diccionarios
30,71
59,62%
004.06
Análisis y diseño de sistemas, arquitectura del
computador, evaluación de desempeño
11,77
45,63%
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
97
004.0711
Informática.Enseñanza. Universidades.Planes de
estudio
0,20
004.09
Computadoras. Historia
7,48
Dewey
67,89%
% Asociación de
Utilización
Utilización
respecto a
Utilización
Descripción
004.165
Microcomputadores digitales específicos
004.21
0,00%
9,71
56,76%
Análisis y diseño de sistemas
133,50
44,57%
004.22
Arquitectura del computador
47,07
45,62%
004.6
Interfases y comunicaciones
148,29
46,59%
004.62
Protocolos para interfases y comunicaciones
50,54
46,97%
004.66
Modalidades de transmisión de datos y métodos
de transmisión de datos
4,28
57,92%
004.67
Redes extensas -Wan
18,56
66,06%
004.68
Redes locales- Lan
4,91
67,40%
004.69
Clases específicas
computador
25,25
60,39%
005.1
Programación
310,51
54,01%
1,92
89,56%
95,50
48,90%
120,81
44,71%
de
comunicaciones
por
005.10685 Ingeniería de software
005.11
Técnicas especiales de programación
005.13
Lenguajes de programación
005.133
Lenguajes específicos de programación
2,76
70,99%
005.133B
Lenguajes específicos de programación-Basic
5,33
62,51%
005.133C
Lenguajes específicos de programación-C
690,01
48,58%
005.133C++ Lenguajes específicos de programación-C++
132,87
47,62%
005.133D
Lenguajes específicos de programación-Delphi
84,52
55,99%
005.133F
Lenguajes específicos de programación-Fortran
2,40
50,08%
005.133J
Lenguajes específicos de programación-Java
139,92
48,54%
005.133L
Lenguajes específicos de programación-Lisp
21,60
61,11%
005.133LI
Lenguajes específicos de programación-Lisp
3,25
50,77%
005.133P
Lenguajes específicos de programación-Pascal
23,23
53,51%
005.133PR Lenguajes específicos de programación-Prolog
35,61
55,35%
Lenguajes
005.133TP Pascal
28,02
60,03%
específicos de programación-Turbo
005.133V
Lenguajes específicos de programación-Visual
Basic
9,95
57,80%
005.136
Lenguajes de máquina y lenguajes ensambladores
28,15
46,71%
005.14
Verificación, prueba, medición, depuración
1,66
63,75%
005.26
Programación para microcomputadores digitales
11,55
65,36%
005.265
Programación para computadores específicos
2,17
72,38%
005.3
Software y programas de aplicaciones
32,55
48,39%
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
98
Programas
en
programación
005.362
lenguajes
específicos
de
5,81
Dewey
43,19%
% Asociación de
Utilización
Utilización
respecto a
Utilización
Descripción
005.362V
Programas
en
lenguajes
programación-Visual Basic
005.369A
específicos
de
74,50
64,29%
Programas específicos-Access
99,24
54,65%
005.369E
Programas específicos-Excel
22,64
50,96%
005.369O
Programas específicos-Office
2,47
51,41%
005.369P
Programas específicos-Powerpoint
1,58
81,01%
005.369W
Programas específicos-Word
5,03
70,15%
0,68
70,43%
323,93
53,08%
4,80
75,00%
45,07
51,19%
005.369WP Programas específicos-Word Perfect
005.43
Programas de Sistemas. Sistemas operativos
005.446
Sistemas
digitales
operativos
para
microcomputadores
005.4469L Sistemas operativos específicos-Linux
Los tres códigos con mayor valor de utilización son 005.133C, 005.43 y 005.1, de los cuales los
correspondientes a "Programas de sistemas. Sistemas operativos" y "Programación", tienen un
porcentaje de asociación de utilización que supera el 50%. Asimismo, de los 53 códigos Dewey
presentados, 39 tienen un porcentaje de asociación de utilización de más de 50%.
Tabla 5. Códigos Dewey con más de 1% de Utilización respecto al cómputo total
Dewey
Descripción
% Utilización
% Asociación de
respecto
Utilización
Utilización Total
005.133C
Lenguajes específicos de programación-C
6,29%
48,58%
005.74
Archivos de datos y Base de datos
3,13%
50,26%
005.43
Programas de Sistemas. Sistemas operativos
2,95%
53,08%
005.1
Programación
2,83%
50,77%
005.73
Estructuras de datos
2,79%
44,42%
515.15
Análisis. Cálculo y geometría analítica
2,24%
44,76%
423.6
Diccionarios Inglés-Español
2,24%
35,78%
001.64
Conocimiento. Procesamiento digital
1,59%
56,02%
519.2
Probabilidades
1,42%
39,33%
004.6
Interfases y comunicaciones
1,35%
46,59%
005.133J
Lenguajes específicos de programación-Java
1,27%
48,54%
004.21
Análisis y diseño de sistemas
1,22%
44,57%
005.133C++ Lenguajes específicos de programación-C++
1,21%
47,62%
005.13
1,10%
44,71%
Lenguajes de programación
El cómputo acumulado de utilización de los 164 códigos arrojó el valor 10978. En la Tabla 5 se
muestran los 14 códigos Dewey que tienen un porcentaje de utilización que supera el 1% de la
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
99
utilización total computada. De ellos, 12 presentan un porcentaje de asociación de utilización
respecto a su utilización que supera el 40%.
Además se detectó que para 120 de los 164 códigos Dewey ocurridos efectivamente en los
movimientos registrados durante el año tratado, la asociación de utilización representó más del
50% de su utilización.
Se evidencia entonces que existen materiales bibliográficos que individualmente no son muy
requeridos, sin embargo su uso aumenta al ser solicitados conjuntamente con otros.
4. Conclusiones
Se han empleado esquemas 2D para facilitar al bibliotecario, considerado en esta oportunidad
como usuario-beneficiario de la tecnología de descubrimiento de conocimiento a partir de los
datos, la detección inmediata de las relaciones existentes entre utilización, estadísticas de
utilización y asociación de utilización para las diferentes categorías de libros. Los códigos Dewey
que computan mayor valor de utilización presentan altos valores de asociación de utilización, lo
que significa que dichos códigos estuvieron asociados con otros en la mayoría de los movimientos
de libros registrados en el sistema. Ello implica que la utilización de un código Dewey particular no
es totalmente dependiente de su estadística de utilización, sino que también depende de su coocurrencia con otros códigos Dewey. Se propone incorporar este conocimiento en instancias de
gestión de la biblioteca, en especial al momento de establecer criterios de asignación de
presupuesto destinado a la adquisición de nuevos ejemplares. En particular los valores obtenidos
de utilización, estadísticas de utilización y asociación de utilización permiten objetivamente
distribuir el presupuesto disponible para compras de libros entre distintos códigos Dewey. Esto
representa un importante aporte a esta tarea realizada habitualmente por el bibliotecario
responsable de la biblioteca de la FCEFN, para la cual frecuentemente recurre a valoraciones
subjetivas respecto al uso de los libros por parte de sus socios.
La distribución del material bibliográfico en definidos espacios físicos está expresada también por
la codificación Dewey. Lo experimentado en la presente aplicación permitió, en determinados
casos, proponer reubicación de material bibliográfico según el perfil propio y característico de la
biblioteca de la FCEFN sobre la que se realizó el estudio.
Con la intención de profundizar las tareas de bibliomining y en camino de futuras aplicaciones, en
el ámbito de la biblioteca de la FCEFN se está trabajando sobre una propuesta de automatización
de obtención de código Dewey referidos a publicaciones en español, generadas en el ámbito de la
propia Facultad o de la UNSJ en general. Hasta el momento la tarea de asignar su código Dewey
a material bibliográfico que no lo posee, e inclusive escrito en diferentes idiomas, está a cargo de
un integrante de la biblioteca de la FCEFN quien desde la lectura del libro o publicación, define su
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
100
área temática de pertenencia y desde allí su correspondiente numeración. Similar objetivo se
pretende, desde la aplicación automática de métricas de minería de texto, determinar la
pertenencia y pertinencia de una titulación bibliográfica e índice asociado con los contenidos
mínimos abarcados por las diferentes carreras que se dictan en el ámbito de la FCEFN.
Un incipiente trabajo se está llevando adelante en lo referente a la definición y tratamiento de
expurgo (no prestable) de material bibliográfico. Mediante la aplicación de algoritmos de
segmentación se pretende llegar a determinar qué material bibliográfico está en condiciones de
pasar a estado de expurgo y por ende la consideración de establecer por parte de la autoridad
bibliotecaria la necesidad o no, de un nuevo lugar de almacenamiento. En el tratamiento de esta
problemática también es tenido en cuenta el desarrollo realizado y los resultados obtenidos en el
presente trabajo,
Bibliografía
Agrawal, R., Imielinski, T., Swami, A. (1993).Mining association rules between sets of items in
large databases. In: Proceedings of the ACM SIGMOD International Conference on
Management of Data. Washington D.C., p. 207-216.
Association of Research Libraries (ARL)- http://www.arl.org/
Brin, S., Motwani, R., Ullman, J. D., Tsur, S. (1997). Dynamic itemset counting and implication
rules for market basket data. Proceedings ACM SIGMOD International Conference on
Management of Data. Tucson, Arizona, USA. p. 255-264.
Chen, M., Han, J. and Yu P. (1996). Data Mining: An Overview from a Database Perspective.
IEEE Transactions on Knowledge and Data Engineering, V.8 N.6, p.866-883.
CONEAU- http://www.coneau.gov.ar/
Dale, P., Beard, J., & Holland, M. (2011). University Libraries and Digital Learning Environments.
Galluzzi, A. (2014). Libraries and Public Perception: A Comparative Analysis of the European
Press. Elsevier.
Hahsler, Michael; Hornik, Kurt; Reutterer, Thomas. (2006).
Implications of probabilistic data
modeling for mining association rules. En From Data and Information Analysis to Knowledge
Engineering. Springer Berlin Heidelberg, p. 598-605.
Hipp, Jochen; güntzer, Ulrich; Nakhaeizadeh, Gholamreza. (2000). Algorithms for association rule
mining—a general survey and comparison. ACM sigkdd explorations newsletter, vol. 2, no 1,
p. 58-64.
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
101
IFLA
-The
International
Federation
of
Library
Associations
and
Institutions-
http://www.ifla.org/III/index.htm
Larose, D. (2005). Discovering Knowledge In Data. An Introduction To Data Mining. Published by
John Wiley & Sons, Inc., Hoboken, New Jersey.
Lineamientos para la Evaluación Institucional- Aprobado por Resolución Nº 094-CONEAU-1997.
http://www.coneau.gov.ar/archivos/482.pdf
Liu, S. T., & Chuang, M. (2009). Fuzzy efficiency measures in fuzzy DEA/AR with application to
university libraries. Expert Systems with Applications, 36(2), 1105-1113.
Mento, Bárbara. (2003). Data Mining and Data Warehousing. SPEC KIT 274. ARL. 77 pp.
[Consulta: 01/02/2013]. http://old.arl.org/bm~doc/spec274webbook.pdf
Nicholson, S. (2006). The basis for bibliomining: Frameworks for bringing together usage-based
data mining and bibliometrics through data warehousing in digital library services. [en
linea]. Information Processing & Management.Volume 42, Issue 3, Pages 785–804
[Consulta: 01/03/2013].
http://www.sciencedirect.com/science/article/pii/S0306457305000658
Norma ISO 11620- http://redc.revistas.csic.es/index.php/redc/article/viewFile/503/557
Resolución CONEAU 315/00- http://www.coneau.edu.ar/archivos/485.pdf
Silverstein, Craig; Brin, Sergey; Motwani, Rajeev. (1998), Beyond market baskets: Generalizing
association rules to dependence rules. Data mining and knowledge discovery, vol. 2, no 1, p.
39-68.
Wu, C.; Lee, T. and Kao, S. (2004). Knowledge discovery applied to material acquisitions for
libraries. Information Processing and Management: an International Journal, Vol. 40 Issue
4, Pergamon Press, Inc.
Enfoque UTE, V.6-N.2, Jun.2015, pp.86 - 101
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9663
Recibido (Received): 2015/04/30
Aceptado (Accepted): 2015/06/08
CC BY-NC-ND 3.0
Herramientas de desarrollo con soporte colaborativo en
Ingeniería de Software
(Development tools to provide collaboration in Software
Engineering)
Julio C. Caiza1, Danny S. Guamán1, Gabriel R. López1
Resumen:
El desarrollo de software es una actividad inherentemente colaborativa. Usualmente los
equipos de desarrollo tienen colaboradores localizados en diferentes lugares, hablando
diferentes lenguajes e incluso con diferentes culturas. Es necesario conocer sobre aquellas
herramientas que pueden ayudar a los desarrolladores en las diferentes etapas del proceso de
creación de software, y especialmente en la etapa de codificación. Este artículo muestra los
nuevos enfoques que tiene el desarrollo de software colaborativo, su relevancia, y revisa un
conjunto de herramientas que incluyen, aquellas creadas como extensiones y aquellas que se
usan sobre la web. Se presenta sus características principales y una comparación, ante
posibles nuevas implementaciones o para decidir cuál utilizar.
Palabras clave: IDE basados en Web; Colaboración; Conocimiento Compartido; Ingeniería de
Software.
Abstract:
Software development is an activity, inherently collaborative; usually development teams have
members located in different places, talking different languages and with another culture.
Therefore, knowledge about helping tools is necessary. These tools could be helpful in the
whole process of software development, and mainly in the coding stage. This paper shows new
perspectives in collaborative software development, its relevance; then, shows a set of
important tools. They include plugins and web-based tools. A set of important features and a
comparison are shown. This information would be helpful if you are thinking about build or use
one.
Keywords: Web-based IDE; Collaboration; Awareness Knowledge; Software Engineering.
1. Introducción
Actualmente los proyectos de software, especialmente los de gran tamaño, son inherentemente
colaborativos (Whitehead, 2007) esto se debe precisamente a características como la dimensión
del proyecto, los tiempos de entrega, e inclusive porque el trabajar en grupo puede ayudar a
sobrellevar limitaciones propias de los humanos (Ej. Localización de errores). Con la ayuda del
progreso de las comunicaciones e internet, barreras geográficas se han eliminado y ahora los
proyectos incluyen personas distribuidas a nivel mundial, de diferentes compañías, idiomas,
culturas, etc.
1
Escuela Politécnica Nacional, Quito – Ecuador ({julio.caiza, danny.guaman, gabriel.lopez} @epn.edu.ec)
103
El tener varios colaboradores, implica que se tiene varios puntos de vista a medida que se avanza
en las etapas del desarrollo de software,
haciéndose necesario el llegar a converger en la
realización de los diferentes artefactos dentro de cada una de ellas (Maalej & Happel, 2008).
Considerando la importancia de la colaboración, en (Whitehead, 2007) se realizó un importante
estudio acerca de la colaboración en el desarrollo de software, realizando una revisión de las
herramientas existentes para proveer colaboración en cada una de las etapas. Sin embargo, la
evolución de las tecnologías de comunicación y para la web ha hecho que nuevas herramientas y
conceptos vayan surgiendo.
La Web 2.0 fundamentada en tecnologías como JavaScript y AJAX ha hecho posible que las
aplicaciones web vayan ganando interactividad casi hasta parecerse a aplicaciones de escritorio,
por lo que la idea de un IDE (Entorno de Desarrollo Integrado) sobre la web se ha convertido en
algo totalmente real. Recursos de la Web 2.0 como redes sociales, blogs, wikis, microblogging, y
tagging han sido considerados para mejorar el aspecto colaborativo e informativo en el desarrollo
de software.
Considerando el ciclo de vida de desarrollo, la etapa que ha recibido más avance en cuanto a
manejar colaboración, es la etapa de codificación y pruebas. Por ende, el enfoque de este artículo
es proveer de un estado actual en cuanto a IDEs existentes basadas en la web y que proveen de
soporte colaborativo, indicando las tecnologías que han ayudado a la construcción de las mismas.
El resto de este documento se compone de una sección en la que se hacen explícitos los nuevos
enfoques que hay en el mundo del desarrollo de software y de la colaboración; en la siguiente
sección se revisan extensiones (plugins) para proveer colaboración; a continuación se describe un
conjunto de herramientas web completas con soporte a la colaboración; luego se realiza una
comparación entre dichas herramientas; la relevancia del uso de las herramientas colaborativas;
se establecen las conclusiones; y se finaliza con la sección de trabajo futuro.
2. Nuevos enfoques de colaboración
Los medios sociales se caracterizan por compartir información y se están usando masivamente.
Ha servido también para que los investigadores apliquen estas tecnologías en el desarrollo de
software, específicamente para dar a conocer sucesos hacia otros usuarios, bien sea dentro de un
grupo o fuera de él. En (Storey, Treude, van Deursen, & Cheng, 2010), se realiza un estudio sobre
como los medios sociales pueden influir sobre el desarrollo de software, principalmente basados
en el hecho de que estas herramientas se caracterizan por tener una arquitectura de participación.
Otro hecho importante es la consideración de aquellos desarrolladores conocidos como End-USer;
y que son los mismos medios sociales los que ayudan a mejorar su conocimiento, a ordenar su
aprendizaje e inclusive a fomentar un aprendizaje en grupo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
104
2.1. Medios Sociales
Dentro de las herramientas de escritorio se podría mencionar Eclipse que en conjunto con
determinadas extensiones, puede guardar la información de las acciones realizadas por un
determinado desarrollador; y mostrar luego esta información con un esquema de microblogging.
En la web, los forges son muy populares para los proyectos de código abierto y cada vez integran
más características de medios sociales. Claro ejemplo de ello es GitHub que puede trabajar
dentro del ámbito de codificación social (Dabbish, Stuart, Tsay, & Herbsleb, 2012). Básicamente
GitHub es una red social de desarrolladores con muchas herramientas que ayudan a mantener el
trabajo colaborativo entre desarrolladores. Asimismo, ha surgido (Code Pad, 2015) como una
comunidad para compartir porciones de código.
Una evolución teniendo en cuenta lo anterior y que se menciona en (Storey et al., 2010), son los
Social Development Environment, que son IDEs sobre la web y que involucran además medios
sociales. Aunque este entorno es viable para proveer, se debe tener en cuenta:

Los beneficios y riesgos antes de su implementación.

Cómo los medios sociales pueden tomar un rol efectivo para soportar coordinación.

Los tipos de medios sociales que pueden usar para incrementar el conocimiento en un
equipo.

Los problemas inherentes respecto a la privacidad.

Cómo administrar las interrupciones que se pueden generar mientras se trabaja.

Finalmente, si su uso implica una mejora en la calidad del software.
Otro enfoque del uso de medios sociales puede ser el reunir retroalimentación de los usuarios
finales, esto ayuda a probar que efectivamente el software está trabajando acorde a lo que se
quiere o inclusive para llegar a diseñar un mejor producto que se acople a lo que el usuario
necesita. Un estudio de este estilo se realiza en (Bajic & Lyons, 2011).
2.2. Desarrolladores End-User
En (Ko et al., 2011) se define a un programador End-User como el rol que una persona asume
cuando ella está creando un programa para conseguir algún objetivo a más de escribir un
programa. Por lo general este tipo de desarrolladores pueden ir desde aquellos que crean hojas
de cálculo hasta aquellos que crean aplicaciones mashup.
En (Singer & Schneider, 2011), se investiga cómo los medios sociales pueden ser usados para
juntar programadores End-User para que colaboren entre ellos para intercambiar conocimiento a
través de la web. Existen comunidades para estos programadores, donde se aprecia la evolución
de este tipo de programadores hasta ser expertos. Incluso, estos entornos se pueden considerar
como medios para propagar métodos y mejores prácticas de programación.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
105
En la web pública, los foros pueden ser viables, pero para trabajar con conexiones entre los
miembros, el microblogging sería más adecuado. En este tipo de escenarios se requiere
establecer mecanismos que fomenten la colaboración de todos.
3. Colaboración a través de extensiones
Las extensiones han servido para poder proveer a los IDEs de funcionalidad extra, en este caso
orientadas hacia fomentar el trabajo colaborativo. A continuación se mencionan dos extensiones
que se crearon con enfoques distintos.
En (King & Lyons, 2011) se reporta la creación de un plugin para Eclipse, a través del cual cada
vez que se realizan eventos en el IDE, estos actualizan el estado un cliente de mensajería
instantánea (Google Talk). El objetivo fue evitar las interrupciones que otros mecanismos, como
una llamada o un mensaje instantáneo, provocarían. Esta extensión, basada en polling, se orienta
a proveer información respecto de presencia, actividad, y lugar en el cual se encuentran.
En (van Deursen et al., 2010) a la par de crear su IDE Adinda, se menciona la creación de una
extensión llamada James para Eclipse. La extensión se usa para enviar información hacia Twitter
sobre las actividades que se realizan y además permite el realizar anotaciones a cualquier parte
del código. Estas interacciones se van guardando en una traza que puede llevar a generar un
esquema de pregunta respuesta en una lista.
4. Herramientas Colaborativas sobre la Web
Actualmente, hay un gran número de investigaciones que se orientan a crear herramientas que
permitan el desarrollo colaborativo. En general se distinguen por la cantidad de utilidades
implementadas y por el modo de controlar la colaboración de los usuarios. A continuación se
presenta un grupo de herramientas y se describen sus principales características.
4.1. Wikigramming
Respecto de los medios sociales, se puede considerar el establecer una herramienta basada en
el esquema de trabajo de una wiki, debido a la sencillez de la misma. Aunque la mayoría de
investigaciones en desarrollo de software usan las wikis como medio de documentación, por
ejemplo AdessoWiki (Lotufo, Machado, Körbes, & Ramos, 2009); existen otras como
Wikigramming (Hattori, 2011) que es la combinación de una wiki y un intérprete de lenguaje.
La motivación de Wikigramming incluye, que no se necesite instalación ni registro, que se pueda
editar libremente el código, y que se puedan ver los cambios inmediatamente. Las características
que la herramienta tuvo finalmente son:

Cada página es asociada a un módulo del programa.

Su uso es solo para efectos de entrenamiento en desarrolladores iniciales.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
106

Usa Gauche (Shiro, 2014), un intérprete de scripts realizados en lenguaje Scheme, por lo
que no se necesita compilación.

La manera para revisar el código es a través de unidades de prueba.
4.2. CloudStudio
En (Nordio, Meyer, & Estler, 2011) presenta este IDE que trabaja sobre la web. CloudStudio
permite el trabajo de varios desarrolladores de manera simultánea sobre un mismo proyecto y sin
importar la ubicación geográfica. Esto debido a que está alojado en la web y trabaja sobre un
repositorio de proyectos compartidos. Además, incluye algunas características de social media.
Las características incluyen:

Respecto a las actualizaciones, no se necesita hacer un commit explícito sino que esto se
realiza en segundo plano ante acciones de edición.

Permite mantener un seguimiento de cambios del resto de colaboradores y permite
compilar administrando los cambios.

Se puede diferenciar el código editado por cada colaborador.

Permite observar a los usuarios que están activos e iniciar una sesión de chat o Skype con
ellos.

Usa lenguaje Eiffel.

Incluye una herramienta para hacer pruebas sobre el código.
4.3. CoRED
En (Lautamäki et al., 2012) se presenta las características de CoRED, es un editor de código en
tiempo real y colaborativo basado en browser para aplicaciones Java, y acorde a sus autores aún
no tiene las suficientes utilidades para ser considerado un IDE. Su arquitectura es totalmente
modular, lo que implica que puede ser modificado y extendido de ser necesario.
Las características que presenta son:

Chequeo de errores.

Generación de código automático.

Se pueden colocar notas sobre secciones del código a manera de hilos de comentarios.

No necesita hacer commits para la sincronización.

Permite bloqueos sobre partes del código.

Se basa en Java como lenguaje, Vaadin (Grönroos, 2011) como framework, y Ace (Ace
Group, 2015) como frontend.
Vaadin confía en las facilidades de GWT que es un sistema de desarrollo para escribir
aplicaciones AJAX en Java y luego compilar el código fuente a código JavaScript, el que corre en
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
107
todos los navegadores. Ace es un editor de código, open source, escrito en JavaScript y que
puede ser fácilmente embebido en una página web y que soporta varios lenguajes. Al usar Ace, se
podrían usar otros lenguajes de desarrollo como JavaScript, HTML, XML, PHP, C++. Al basarse
en Java, usa el JDK para compilar y mostrar errores.
4.4. Collabode
En (Goldman, Little, & Miller, 2011) se realiza una descripción de las características de este IDE
además de proponer 3 escenarios en los que realizaron las pruebas de la misma. Las
características son:

Usa Eclipse en el lado del servidor, lo que le permite proveer los servicios de compilación
continua de errores y warnings, formateo de código, refactoring y ejecución.

Permite la compilación de cualquier proyecto de Java Eclipse de escritorio.

El browser solo muestra la salida que procesa el servidor y por lo tanto no se puede ver
programas Java con interfaz gráfica.

Usa EtherPad para soportar colaboración entre usuarios simultáneos.

Soporta cambios concurrentes.

Implementa permisos de escritura y lectura sobre proyectos, paquetes, clases y métodos,
para controlar la cantidad de información entre los colaboradores.

Soporta la realización de pruebas. Así un desarrollador puede estar codificando mientras
otro puede estar realizando un conjunto de pruebas.

Provee de una vista para dispositivos móviles.
Su trabajo continúa para dar soporte a otros lenguajes y para soportar el intercambio de
información entre colaboradores.
4.5. Adinda
Es un IDE basado que trabaja sobre la web, y se basa en un cliente conectado a una serie de
servicios (van Deursen et al., 2010). Las características, que se van añadiendo a medida que
surgen nuevas hipótesis, son:

Tiene servicios para editar, compilar y realizar pruebas.

Su enfoque colaborativo incluye administración de tareas, edición en grupo, etiquetado,
social networking, e incluso data mining.

Los servicios centralizados recogen todo tipo de información concerniente a las actividades
de todo el equipo de desarrollo y lo usa para asistir a desarrolladores individuales.

Se pueden crear workspaces, proyectos y archivos de clase.

Edición con colores y con autocompletado.

En su cliente se pueden hacer programas Java, y el servidor usa Eclipse.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
108
Se basaron en WWWorkspace (Ryan) y usa AJAX para su interactividad. La filosofía es reutilizar
al máximo los componentes.
Los autores reportan consideraciones e implicaciones que van surgiendo, estas tienen que ver con
los métodos de versionamiento, estrategias de etiquetado y microblogging para trazabilidad, la
participación de los desarrolladores, como identificar la información y el nivel de detalle que hay
que guardar; como discernir entre las actividades que en realidad aportan información e inclusive
si se puede llegar a establecer recomendaciones.
4.6. Coderun Studio
Acorde a (CodeRun), es un IDE basado en browser. Sus principales características son:

Soporta la creación de proyectos en varios lenguajes como C#/.NET (3.5), PHP (5.1),
JavaScript, HTML y CSS.

Soporte de base de datos SQL Server 2005 y Amazon SimpleDB.

Creación con el uso de templates.

En la edición se tiene coloreo de sintaxis y autocompletado de código.

Para aplicaciones .NET permite compilación y depuración.

Permite despliegue del proyecto para todos los lenguajes.

Compartición de código a través de enlaces. A través de este modo se publica un enlace al
cual puede acceder un colaborador para editar el código.

Garantiza la seguridad y privacidad de tu ambiente de desarrollo.
4.7. Cloud9 IDE
En (Daniels, 2015) se define como un IDE basado en browser y que vive en la nube, permitiendo
correr, depurar y desplegar aplicaciones desde cualquier lugar y a cualquier hora.
Las características que se señalan son:

Soporte para los lenguajes JavaScript, HTML, CSS, Coffeescript, Ruby y PHP.

Su editor tiene soporte de sintaxis y manejo con colores del código.

Se puede añadir colaboradores para trabajar simultáneamente sobre el mismo proyecto, y
maneja permisos sobre los mismos.

Se puede ejecutar aplicaciones NodeJS dentro de cloud9 de manera fácil.

Provee de análisis de código en tiempo real.

Tiene una completa integración con GitHub, provee así de control de versiones, y la
posibilidad de compartirlo online.

Las organizaciones pueden administrar los proyectos asignando o removiendo
colaboradores.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
109

Provee un servicio de chat integrado para la comunicación con los colaboradores.
5. Comparación
En la Tabla 1 se muestra la comparación de las principales características de las herramientas de
desarrollo con soporte colaborativo previamente mencionadas. Durante la búsqueda de
información, se han establecido un conjunto de criterios que pueden resultar relevantes al
momento de seleccionar una determinada herramienta:

Lenguajes soportados. - Es una característica esencial para que un interesado decida usar
una determinada herramienta. La experticia o el interés de un desarrollador en un
determinado lenguaje se puede convertir en un requerimiento no funcional muy importante
al momento de elegir una herramienta de apoyo.

Etapas cubiertas. - Se refiere a las etapas del proceso de desarrollo de software que han
sido cubiertas por la herramienta, mientras más etapas, se vuelve una herramienta más
robusta y útil. Hay que tener en cuenta que en fases iniciales del aprendizaje de
programación, lo que se pretende dar soporte es la fase de codificación; y en etapas más
formales, se da mucha importancia a las etapas de análisis, diseño y pruebas.

Sincronización de información. - Su importancia radica debido al interés de facilitar los
procesos al desarrollador. La facilidad o complejidad de la sincronización pueden llevar a
que se decida usar o no una herramienta. Además, asociado a esto pueden darse
problemas de sincronización en la información y datos que comparten los desarrolladores.

Los módulos base se refieren a los componentes utilizados para construir la herramienta,
esta información puede ser muy útil para proyectos que deseen construir herramientas
análogas o que busquen por componentes orientados a una actividad en particular.
Asimismo, para evitar tecnologías obsoletas o no compatibles con una eventual plataforma
existente.

La comunicación entre colaboradores se vuelve esencial como forma explícita de compartir
información con otros desarrolladores. Se vuelve muy importante en casos de conflictos o
por dudas ante determinada sección de desarrollo.
Nombre
Lenguajes
Soportados
Wikigramming
Scheme
CloudStudio
Eiffel
CoRED
Java
Collabode
Java
Tabla 1. Comparación de las herramientas.
Etapas Cubiertas
Sincronización
Información
Módulos
Base
Edición, realización de
pruebas.
Edición, compilación,
depuración, realización
de pruebas.
Edición, compilación,
depuración.
Similar a Wiki, no
simultánea.
Sincronización en tiempo
real.
Gauche
Sincronización en tiempo
real.
JDK.
Vaadin.
Ace.
Edición, compilación,
Sincronización en tiempo
Eclipse.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
Comunicación
Colaboradores
Chat.
Etiquetas sobre
código.
110
Adinda
Java
Coderun Studio
C#/.NET, PHP
JavaScript,
HTML, CSS
Cloud9 IDE
JavaScript,
HTML,
CSS, Coffeescript.
Ruby, PHP.
depuración, ejecución,
realización de pruebas.
Edición, compilación,
realización de pruebas.
Compilación y
depuración para .NET.
Despliegue para
lenguajes web.
Depuración y
despliegue.
real.
Etherpad.
Sincronización no en
tiempo real, compartición
de proyectos a través de
enlaces.
Compartición no en
tiempo real, a través de
enlaces.
Eclipse.
WWWorkspace.
Etiquetado.
Permite trabajo
simultáneo sobre
proyectos a través de
versionamiento.
Usa la
tecnología de
GitHub
Chat.
Se distinguen dos grupos de herramientas, aquellas que proveen soporte para lenguajes de
escritorio compilados y aquellos que proveen soporte para lenguajes de desarrollo web.
Ambos grupos de herramientas trabajan con una arquitectura cliente – servidor. El cliente
adquiere su interactividad al usar JavaScript. Respecto al servidor, para el primer grupo, se tiene
un compilador que permite detectar los errores de edición y de compilación, los resultados son
enviados al cliente a través de AJAX; en el segundo grupo de herramientas, se tiene un módulo
que ayuda al despliegue de la aplicación en la web.
El uso de módulos base para construir los IDEs con soporte colaborativo es común, y algunas
aplicaciones han logrado obtener un esquema tan modular que inclusive se podría rediseñarlo
para soporte para más lenguajes.
Además, el modo de sincronización de datos puede ser realizado en tiempo real gracias a la
ayuda de AJAX, o a través de versionamiento usando herramientas como GitHub. Para
escenarios donde se tiene una aplicación grande y se requieran de varios colaboradores, la
segunda opción podría ser la más acertada.
6. Relevancia
La distancia agrava la posibilidad de realizar una coordinación y control efectivos durante un
proceso de desarrollo de software debido a que la comunicación se podría ver afectada directa o
indirectamente (Carmel, Agarwal 2001). De ahí la relevancia y la diferenciación del uso de
herramientas de desarrollo con soporte colaborativo en Ingeniería de Software.
Los ambientes de desarrollo colaborativo tienen como objetivo el aportar en todas las fases de
desarrollo de software, es así que empresas que requieran una estrategia confiable de gestión del
ciclo de vida del producto asegurando eficiencia, consistencia, y seguridad de la información se
sugiere su inversión para un desarrollo colaborativo. Su importancia resalta desde productos
iniciales de colaboración como para gestión de versionamiento o gestión de requerimientos, que
luego de su implementación tienden a mejorar el desarrollo de software en la empresas (Lanubile,
Filippo, et al 2010). En el reporte realizado por (Linux Foundation, 2014) se presentan las
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
111
tendencias en el desarrollo colaborativo en las empresas. Dichas empresas, principalmente de
tecnología, se enfrentan a una presión considerable para innovar rápidamente y reducir costos.
Como consecuencia de ello, se consolida cada vez más un modelo de negocio en donde las
empresas, inclusive las competidoras, trabajan de manera colaborativa para compartir recursos de
desarrollo y construir bases de código común. Posteriormente, cada uno diferencia sus propios
productos y servicios.
En el mismo reporte se puede apreciar que de las 686 respuestas a una encuesta realizada a
desarrolladores de software y administradores de negocios, en las que se incluyen a empresas
como Cisco, Fujitsu, HP, IBM, Intel, Google, NEC, Oracle, Qualcomm y Samsung, un 91%
reconoce la importancia del desarrollo colaborativo en su empresa, tal como se observa en la
Figura 1.
Figura 1. Importancia del desarrollo colaborativo en las empresas (Linux Foundation, 2014)
Por otro lado hay que mencionar también que la tendencia de Ingeniería de Software Global se
basa en el uso de metodologías de desarrollo ágiles en ambientes distribuidos que
inherentemente se basan en la colaboración. La comunicación y colaboración entre
desarrolladores y clientes, y la retroalimentación temprana son características esenciales en un
proceso de desarrollo iterativo e incremental (Turk, France, & Rumpe, 2014). Además, el
desarrollo colaborativo ha sido adoptado por sus beneficios para mejorar la comunicación,
coordinación e incrementar la calidad y la productividad (Kaur, Sharma 2014). Siendo la base de
esta tendencia de ingeniería de software la colaboración, las herramientas para este propósito
demuestran su importancia y justificación de inversión para empresas dedicadas al desarrollo de
aplicaciones.
Finalmente, al ser las herramientas de colaboración un mediador entre equipos éste ayuda a
romper barreras de lenguaje, diferencia cultural, formación, o de falta de trabajo en equipo
(Dorairaj, Noble, Malik, 2011), con el objetivo de no frenar el aporte de personal talentoso, mejorar
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
112
la transferencia de conocimiento, reducción de tiempo de desarrollo, mejorar la calidad del
software, y dar una respuesta rápida a innovación y cambios en el negocio (Hossain, Babar, Paik
2009). Hay que mencionar también que el desarrollo de aplicaciones Open Source y el desarrollo
colaborativo van de la mano. La comunidad del kernel de Linux fue pionero en este enfoque de
desarrollo de software, ya que involucra múltiples individuos y empresas, en muchos casos, que
compiten en el mismo sector, y en donde el código base es abierto y de una inversión compartida.
(Linux Foundation, 2014). Su éxito ha ayudado a inspirar la difusión de métodos de colaboración
en otras industrias y tecnologías.
7. Conclusiones
La colaboración en ingeniería de software se ha orientado especialmente a brindar la posibilidad
de desarrollar usando herramientas que trabajan sobre la web, y de implementar elementos de
social media dentro de las herramientas.
La colaboración puede ser aplicada desde ayudar a los nuevos programadores, incluyendo los
End-User; hasta ser aplicada para el desarrollo de aplicaciones grandes para las cuales es
necesario disponer de un IDE.
Respecto a la cantidad de herramientas de desarrollo de escritorio y con extensiones, o aquellas
que trabajan sobre la web; se observa que el campo de las segundas se ha desarrollado más.
Las herramientas basadas en browser o web se orientan a poder codificar desde cualquier lugar, a
cualquier hora, y soportando colaboración.
Una herramienta básica debe contener un editor que soporte colaboración. Aunque actualmente
hay verdaderos IDEs que cada vez incorporan mayores funcionalidades.
El diferenciar las herramientas basadas en browser depende de características como los
lenguajes que soportan, el modo de sincronización de los datos entre varios colaboradores, el
manejo de versiones, y el diseño de su arquitectura.
Se pueden usar los modos de trabajo de las tecnologías de social media para acoplarlos a nuevas
maneras de codificación, como por ejemplo el uso de etiquetas y actualizaciones automáticas que
se pueden integrarlos dentro del mismo IDE.
La colaboración entre varios integrantes dentro de un proyecto es soportada cada vez de mejor
manera dentro de los IDEs basados en browser, sin embargo, siguen planteándose cuestiones
respecto a cuánta información compartir, cómo definirla, y como definir la calidad del mismo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
113
Muchas herramientas usan una arquitectura modular que usan herramientas producto de
investigaciones realizadas previamente, esto implica la ventaja de poder modificarlas acorde a
necesidades específicas, pudiendo dar soportes a más lenguajes como a extensiones que
permitan colaboración.
Las herramientas que soportan lenguajes compilados distinguen entre el lado del cliente y el lado
del servidor, el primero contempla el uso de JavaScript para conseguir la interactividad con el
desarrollador, el segundo contempla el uso de un framework que permita compilar, depurar y
desplegar la aplicación. Además AJAX tiene un papel muy importante al proveer un medio a
través del cual las peticiones y respuestas del servidor se realizan de manera asincrónica
permitiendo finalmente conseguir un IDE sobre browsers.
Se ha mostrado la relevancia del campo de estudio a través de reportes que consideran empresas
de TI muy conocidas, y que ratifican la importancia de la aplicación de la colaboración en
desarrollos globales.
8. Trabajo Futuro
En el contexto de los programadores End-User, hay otra línea de investigación relacionada y que
se refiere a la Ingeniería de Software End-User (EUSE - End User Sofware Engineering), y ésta se
orienta al estudio del proceso de desarrollo y de la calidad de software en el desarrollo End-User
(Burnett & Myers, 2014). Los autores mencionan una propuesta acerca de romper un enfoque
basado en silos, un silo se puede crear por cada etapa dentro de un proceso de desarrollo, e
incluso el llegar a usar nuevos modelos de desarrollo que no sigan las etapas dentro del ciclo
tradicional. Considerando esta propuesta, ya se puede empezar a pensar en nuevos modelos de
desarrollo que aporten a la EUSE y con el soporte adecuado para el desarrollo colaborativo.
Asimismo, considerando que han habido estudios en los cuales se ha usado el enfoque del
desarrollo de software colaborativo orientado a mejorar el aprendizaje de ingeniería de software
de los estudiantes (Berenson, Williams, Slaten 2005) , y a la productividad y calidad del mismo
(Layman,
et al. 2005); se puede pensar en que luego de desarrollar modelos diferentes al
tradicional, será necesario el determinar nuevas formas de fomentar el aprendizaje de los
estudiantes, y de establecer la calidad en los desarrollos.
Considerando las nuevas tendencias que incluyen, la computación en la nube, el grid, el Open
data/Linked data, Big Data, el IoT (Internet of Things), la api-ficación, entre otros; ya existen
trabajos se están realizando en torno al desarrollo End-User. Así se tienen trabajos como los
reportados en (Tetteroo et al., 2015) (Coutaz, Demeure, Caffiau, & Crowley, 2014) que se orientan
al desarrollo End-User orientado al IoT o a las Smart Homes. Sin embargo, aún quedan el resto de
tendencias en las cuales el desarrollo End-User y el EUSE pueden ser usados. Además, cada una
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
114
de las nuevas tendencias puede hacer uso del desarrollo colaborativo para soportar etapas,
ayudar a los desarrolladores, enseñar a los desarrolladores novatos o estudiantes, etc.
Bibliografía
Ace Group. (2015). The high performance code editor for the web. Retrieved 04/15, 2015, from
http://ace.c9.io/
Bajic, D., & Lyons, K. (2011). Leveraging social media to gather user feedback for software
development. Proceedings of the 2nd International Workshop on Web 2.0 for Software
Engineering, Waikiki, Honolulu, HI, USA. pp. 1-6.
Berenson, S. B., Williams, L., & Slaten, K. M. (2005). Using Pair Programming and Agile
Development Methods in a University Software Engineering Course to Develop a Model of
Social Interactions. In Crossing Cultures, Changing Lives Conference.
Burnett, M. M., & Myers, B. A. (2014). Future of End-User Software Engineering: Beyond the Silos.
Proceedings of the on Future of Software Engineering, FOSE 2014 (pp. 201–211). New
York,
NY,
USA:
ACM.
Retrieved
June
6,
2015,
from
http://doi.acm.org/10.1145/2593882.2593896
Carmel, E., & Agarwal, R. (2001). Tactical approaches for alleviating distance in global software
development. Software, IEEE, 18(2), 22-29.
Code Pad. (2015). Code pad. Retrieved 04/29, 2015, from http://codepad.co/
CodeRun. CodeRun. Retrieved 01/22, 2012, from http://www.coderun.com/;
Coutaz, J., Demeure, A., Caffiau, S., & Crowley, J. L. (2014). Early Lessons from the Development
of SPOK, an End-User Development Environment for Smart Homes. Proceedings of the
2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct
Publication, UbiComp ’14 Adjunct (pp. 895–902). New York, NY, USA: ACM. Retrieved June
6, 2015, from http://doi.acm.org/10.1145/2638728.2641559
Dabbish, L., Stuart, C., Tsay, J., & Herbsleb, J. (2012). Social coding in GitHub: Transparency and
collaboration in an open software repository. Proceedings of the ACM 2012 Conference on
Computer Supported Cooperative Work, pp. 1277-1286.
Daniels, R. (2015). Cloud 9 your development environment on the cloud. Retrieved 04/10, 2015,
from https://c9.io/
Dorairaj, S., Noble, J., & Malik, P. (2011). Effective communication in distributed Agile software
development teams. In Agile Processes in Software Engineering and Extreme Programming
(pp. 102-116). Springer Berlin Heidelberg.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
115
Goldman, M., Little, G., & Miller, R. C. (2011). Collabode: Collaborative coding in the browser.
Proceeding of the 4th International Workshop on Cooperative and Human Aspects of
Software Engineering, pp. 65-68.
Grönroos, M. (2011). Book of vaadin Lulu. com.
Hattori, T. (2011). Wikigramming: A wiki-based training environment for programming. Proceedings
of the 2nd International Workshop on Web 2.0 for Software Engineering, Waikiki, Honolulu,
HI, USA. pp. 7-12.
Hossain, E., Babar, M. A., & Paik, H. Y. (2009, July). Using scrum in global software development:
a systematic literature review. In Global Software Engineering, 2009. ICGSE 2009. Fourth
IEEE International Conference on (pp. 175-184). Ieee.
Kaur, P., & Sharma, S. (2014). Agile Software Development in Global Software Engineering.
International Journal of Computer Applications, 97(4), 39-43.
King, A., & Lyons, K. (2011). Automatic status updates in distributed software development.
Proceedings of the 2nd International Workshop on Web 2.0 for Software Engineering,
Waikiki, Honolulu, HI, USA. pp. 19-24.
Ko, A. J., Abraham, R., Beckwith, L., Blackwell, A., Burnett, M., Erwig, M., et al. (2011). The state
of the art in End-User software engineering. ACM Computing Surveys (CSUR), 43(3), 21.
Lautamäki, J., Nieminen, A., Koskinen, J., Aho, T., Mikkonen, T., & Englund, M. (2012). CoRED—
Browser-based collaborative real-time editor for java web applications. Proceedings of the
Fifteenth ACM Conference on Computer Supported Cooperative Work (CSCW 12),
Layman, L., Williams, L., Osborne, J., Berenson, S., Slaten, K., & Vouk, M. (2005, October). How
and Why Collaborative Software Development Impacts the Software Engineering Course. In
Frontiers in Education, 2005. FIE'05. Proceedings 35th Annual Conference (pp. T4C-T4C).
IEEE.
Linux
Foundation.
(2014).
Collaborative
Development
Trends
Report.
Retrieved
from
http://go.linuxfoundation.org/l/6342/pub-collab-dev-trends-2014/2gw3ly
Lotufo, R. A., Machado, R. C., Körbes, A., & Ramos, R. G. (2009). Adessowiki on-line collaborative
scientific programming platform. Proceedings of the 5th International Symposium on Wikis
and Open Collaboration, pp. 10.
Maalej, W., & Happel, H. J. (2008). A lightweight approach for knowledge sharing in distributed
software teams. Practical Aspects of Knowledge Management, , 14-25.
Nordio, M., Meyer, B., & Estler, H. -. (2011). Collaborative software development on the web.
CoRR, abs/1105.0768
Ryan, W. WWWorkspace. Retrieved 04/15, 2015, from http://www.willryan.co.uk/WWWorkspace/
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
116
Shiro, K. (2014). Gauche A schem implementation. Retrieved 04/15, 2015, from http://practicalscheme.net/gauche/
Singer, L., & Schneider, K. (2011). Supporting the cooperation of End-User programmers through
social development environments. Proceedings of the 2nd International Workshop on Web
2.0 for Software Engineering, Waikiki, Honolulu, HI, USA. pp. 13-18.
Storey, M. A., Treude, C., van Deursen, A., & Cheng, L. T. (2010). The impact of social media on
software engineering practices and tools. Proceedings of the FSE/SDP Workshop on Future
of Software Engineering Research, pp. 359-364.
Tetteroo, D., Markopoulos, P., Valtolina, S., Paternò, F., Pipek, V., & Burnett, M. (2015). End-User
Development in the Internet of Things Era. Proceedings of the 33rd Annual ACM Conference
Extended Abstracts on Human Factors in Computing Systems, CHI EA ’15 (pp. 2405–2408).
New
York,
NY,
USA:
ACM.
Retrieved
June
6,
2015,
from
http://doi.acm.org/10.1145/2702613.2702643
Turk, D., France, R., & Rumpe, B. (2014). Assumptions underlying agile software development
processes.
van Deursen, A., Mesbah, A., Cornelissen, B., Zaidman, A., Pinzger, M., & Guzzi, A. (2010).
Adinda: A knowledgeable, browser-based IDE. Proceedings of the 32nd ACM/IEEE
International Conference on Software Engineering-Volume 2, pp. 203-206.
Whitehead, J. (2007). Collaboration in software engineering: A roadmap. Future of Software
Engineering, 2007. FOSE'07, pp. 214-225.
Enfoque UTE, V.6-N.2, Jun.2015, pp.102 - 116
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
http://ingenieria.ute.edu.ec/enfoqueute/
e-ISSN: 1390‐6542 / p-ISSN: 1390-9663
Recibido (Received): 2015/02/20
Aceptado (Accepted): 2015/06/17
CC BY-NC-ND 3.0
Mejoramiento en la productividad de software por la adaptación
de un marco de desarrollo ágil.
(Improving productivity software through the adaptation of an
agile development framework)
Ángel Fiallos Ordoñez1
Resumen:
El presente trabajo de investigación plantea que el uso de las metodologías ágiles en conjunto
con herramientas de software libre permite mejorar la productividad, reducir costos y optimizar
recursos en la etapa de desarrollo informático, y contribuye a mejorar la satisfacción del usuario
con la implementación de software de excelente calidad. A continuación se realiza un
diagnóstico de las variables consideradas de importancia para el éxito en la ejecución o
desarrollo de proyectos informáticos y que están asociadas al uso de las metodologías
tradicionales y ágiles para el desarrollo de software.
Palabras clave: MDA; metodologías; ágiles; software; desarrollo
Abstract:
The current research suggests that using of agile methodologies in conjunction with open
source software tools can improve productivity, reduce costs and optimize resources in the
process of software development, and helps improve user satisfaction due to implementation of
excellent quality software. The following analysis shows the most important variables for the
successful implementation of IT development projects and their relation with the use of
traditional and agile software development methodologies.
Keywords: MDA, methodologies; agile; software; development
1. Introducción
1.1. Situación Actual
En el mundo actual las organizaciones son cada vez más dependientes de la tecnología, la
demanda de software es cada vez más elevada, y el proceso de desarrollo del software es más
costoso y susceptible a cambios en las especificaciones en cualquiera de sus etapas. Los equipos
de desarrollo deben ser cada vez más competitivos y eficientes en cuanto a recursos y
presupuesto, por lo que deben adoptar marcos de trabajo y metodologías que permitan que el
desarrollo de aplicaciones se realice en menor tiempo, de una manera organizada y con menos
costos, facilitando el mantenimiento y las posteriores actualizaciones de dicho software.
En el proceso de construcción del software, las metodologías de desarrollo son un factor crítico,
encontrándose vigentes para su aplicación, las denominadas metodologías tradicionales y ágiles.
Standish Group en su reporte “Manifiesto del Caos”, ha determinado estadísticamente que los
1
Universidad de Especialidades Espíritu Santo, Guayas, Samborondón, Ecuador ([email protected])
118
proyectos ejecutados con metodologías ágiles, tuvieron más probabilidad de culminar con éxito
que aquellos proyectos en los que se utilizaron los métodos tradicionales (en cascada) y que los
cambios en los objetivos de los proyectos en los que aplicaron las metodologías ágiles,
disminuyeron con relación a los proyectos manejados con métodos tradicionales.
Este reporte establece como factor de éxito que el software debe ser construido en pequeños
pasos iterativos, con equipos de trabajo pequeños y focalizados. En cambio los métodos
tradicionales, asumen que es posible predecir y detallar a largo plazo las variables del proyecto,
en lo que respecta la planificación, del alcance, costo, tiempo, recursos y calidad del producto
final. Esta situación determina que el desarrollo de software sea poco adaptable al cambio.
Como apoyo a las metodologías ágiles de desarrollo de software, surge la especificación Model
Driven Development (MDA)
para dar facilidad en el entendimiento de sistemas complejos,
mientras proporciona una abstracción del sistema. Esta visión abstracta del sistema es
representada a través de estándares de modelado establecidos por el Object Management Group
(OMG) como son: Unified Modeling Language (UML), Meta-Object Facility (MOF) y XML Metadata
Interchange (XMI).
La especificación MDA no intenta reinventar otro proceso de desarrollo de software pero agrupa el
conocimiento de los últimos veinte años en la ingeniería de software para varias arquitecturas. De
hecho el enfoque de MDA se basa principalmente en el Model Driven Development (MDD) (Stahl,
2006) y lo que sugiere que un sistema debe ser modelado primero antes de que pueda ser
transformado para adaptarse a la plataforma final en la que se ejecutará.
Este enfoque cambia el concepto de la metodología tradicional, centrándose en la definición y el
diseño de los componentes, permitiendo que la codificación se pueda realizar de forma
automática y en el lenguaje de programación a seleccionar, con el fin de reducir esfuerzo y dar
mayor flexibilidad a las etapas del ciclo de vida de software.
1.2. Objetivo General.
Demostrar mediante el prototipo de una aplicación web y el análisis de métricas de ingeniería de
software, que el uso de las metodologías agiles reduce el esfuerzo, costo, tiempo, líneas de
código y aumenta la productividad en el proceso de desarrollo de software
1.3. Objetivos Específicos
Implementar un proceso desarrollo ágil en el marco de una arquitectura dirigida a modelos (MDA)
para la construcción de un prototipo web, mostrando paso a paso todas las etapas necesarias
hasta la implementación del producto.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
119
Aplicar el modelo matemático COCOMO 2.O para medir el esfuerzo, tiempo y productividad en el
desarrollo tradicional de software, tomando como referencia las funcionalidades implementadas
en el prototipo web
Aplicar la métrica de punto de función para la medición del número de líneas de código en el
desarrollo tradicional de software, tomando como referencia las funcionalidades implementadas
en el prototipo web y el lenguaje de programación seleccionado.
Usar
herramientas de código abierto para la configuración de un marco de trabajo para el
desarrollo e implementación del prototipo web.
1.4. Hipótesis
El presente estudio
combinación con
de caso, plantea que
el uso de metodologías de desarrollo ágil, en
herramientas de software libre, aumentará la productividad, así también
disminuirá los tiempos, los costos
y mejorará la flexibilidad en las etapas de desarrollo de
software.
A través de la construcción paso a paso de un prototipo funcional configurado en el entorno de
una arquitectura dirigida por modelos, se realizará la demostración de la viabilidad técnica que
ofrecen las herramientas de software libre para el efecto,
así también se presentará la
funcionalidad de la aplicación, estadísticas del sector software y un análisis cuantitativo de datos
y variables relacionadas a los procesos de desarrollo de software, tales como tiempos, esfuerzos,
calidad, costos y líneas de código manuales.
2. Metodología
2.1. Diseño de la investigación
La modalidad de investigación del presente trabajo considera la elaboración y desarrollo de una
propuesta de modelo operativo viable para solucionar la problemática actual con respecto a las
metodologías tradicionales.
Se contempla la medición de las variables indicadas en la Tabla 1 al culminar la etapa de
implementación del prototipo web bajo el contexto de las metodologías ágiles. Para realizar la
comparación respectiva de los valores con respecto al uso de metodología tradicional, se ha
considerado tomar como referencia el cálculo estimado de las variables, mediante la aplicación de
las siguientes métricas de ingeniería de software: punto de función y el modelo constructivo de
costo – COCOMO.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
120
La comparación de cada una de las variables medidas durante la construcción del prototipo web,
con los valores estimados por las métricas de software, ha permitido evaluar y calcular los
indicadores a ser presentados.
Variable
Tabla 1. Variables e Indicadores del estudio de caso
Concepto
Indicador variación
Esfuerzo
Horas
de
trabajo
realizado
Costo
por
desarrollo
prototipo
con
metodologías
programador para una
tradicionales - Horas de trabajo empleadas en
determinada actividad.
desarrollo prototipo con metodologías ágiles
Costos de mano de
Costo por horas de trabajo estimado en
obra por programador
desarrollo
en
tradicionales - Costo por horas empleadas en
un
tiempo
determinado.
Tiempo
Horas de trabajo (estimadas e históricas) en
Duración
prototipo
con
metodologías
desarrollo prototipo con metodologías ágiles
de
actividades
las
cantidad de tiempo estimado en desarrollo de
de
prototipo con
desarrollo de software
metodologías tradicionales
-
Cantidad de tiempo empleado en desarrollo de
prototipo con metodologías ágiles
Productividad
Cantidad
de
trabajo
realizado
por
programador
en
un
tiempo determinado.
Trabajo
en
puntos
objeto
desarrollo de prototipo con
estimado
en
metodologías
tradicionales - Trabajo en puntos objeto
realizado en el desarrollo de prototipo con
metodologías ágiles
Líneas de código
Conteo de líneas de
Total de líneas de código manuales estimadas
código generadas de
con
forma
código generadas automáticamente en el
líneas
automática
y
codificadas
metodologías tradicionales - Líneas de
desarrollo de prototipo.
manualmente
2.2. Población y Muestra
Teniendo como antecedente, el estudio del mercado de Hardware y Software del Ecuador para el
año 2012 realizado por la Asociación Ecuatoriana de Software (AESOFT), existen 633 empresas
que participan en el sector de “Programación, Informática, Consultoría de Informática y
actividades conexas”. El 86% de las empresas está en la ciudad de Quito y Guayaquil, con el 49%
y 37% respectivamente.
Del total indicado, las empresas que se dedican exclusivamente al desarrollo de Software y están
registradas en el catálogo de empresas de Software de la AESOFT (AESOFT C. , 2013), suman
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
121
132 empresas a nivel nacional, número que será determinada como la población del presente
estudio.
La muestra a tomar es de 31 empresas del sector Software, sobre la cual se realizó encuestas a
propietarios, desarrolladores y líderes de proyecto que respondieron de forma positiva a su
llenado.
3. Resultados
Para el desarrollo de la aplicación web, dentro del contexto de la arquitectura dirigida a modelos
(MDA), se proponen las siguientes tecnologías de software libre:

AndroMDA.- AndroMDA es un framework2 de código extensible asociado a la especificación
MDA. La herramienta
toma cualquier modelo (usualmente modelos UML guardados en
formato XMI producidos por alguna herramienta case), que en combinación con plugins de la
propia
herramienta
(Plantillas
y
bibliotecas
de
traducción),
produce
componentes
personalizados, es decir, se puede generar componentes en un gran número de lenguajes
entre los que se encuentra: Java, .Net, HTML, PHP, etc. (AndroMDA.org, 2012).

Eclipse.- Es una plataforma de software de código abierto independiente de otras plataformas.
Esta plataforma, típicamente ha sido usada para desarrollar entornos integrados de desarrollo.
Sin embargo, también se puede usar para otros tipos de aplicaciones cliente.

JBoss.- es un servidor de aplicaciones Java EE de código abierto implementado en Java
puro. Al estar basado en Java. JBoss puede ser utilizado en cualquier sistema operativo para
el que esté disponible la máquina virtual de Java.

Herramienta de Modelado.- Existen varias herramientas para el modelado UML, compatibles
con el IDE Eclipse. Debe seleccionarse una herramienta con entorno gráfico de los diagramas
UML, que cumpla con las especificaciones de OMG.

MySQL. - La única limitación que establece AndroMDA respecto a la base de datos es que
esta sea compatible con Hibernate. La base de datos se comunica con la capa superior
mediante registros de la base de datos.

Hibernate.- Es un Framework Java para el manejo de bases de datos, que permite el mapeo
de objetos relacionales a objetos.
2
Framework, se refiere un conjunto estandarizado de conceptos, prácticas y criterios para enfocar un tipo
de problemática particular que sirve como referencia, para enfrentar y resolver nuevos problemas de índole
similar.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
122
El prototipo funcional se implementa bajo la plataforma J2EE, siguiendo una arquitectura de N
niveles o capas distribuidas, basándose ampliamente en componentes de software modulares y
que serán ejecutados en un servidor de aplicaciones. Bajo esta premisa, el marco ágil de trabajo
propuesto tiene el marco de arquitectura de aplicaciones que se presenta en la Figura 1.
Figura. 1. Modelo de Arquitectura de aplicaciones J2EE.
3.1. Levantamiento de Información
El módulo web funcional a implementar consiste en una aplicación J2EE, para el registro de
fichas de actividades de los empleados de un determinado negocio o empresa. Los empleados a
medida que trabajan en las distintas tareas encomendadas, registran la fecha, hora de inicio y
hora de finalización de labores.
Para el desarrollo del aplicativo, se emplearán los conceptos de la especificación MDA para las
conversiones a código fuente de los modelos UML elaborados en la etapa de diseño, por medio
de la ejecución del plugin de AndroMDA dentro del contexto de la arquitectura J2EE establecida
para el efecto.
Las reglas de negocio muy particulares deben codificarse manualmente con el
mínimo esfuerzo posible.
El proceso de desarrollo en base al estándar MDA, inicia con la solicitud de nuevos
requerimientos de usuario de una manera informal, cuya funcionalidad es modelada en diagramas
UML (Diagrama de clases, casos de uso y diagramas de actividad), con el uso de herramientas
como Magic Draw.
Una vez completados los modelos en programas XML, se ejecutan los componentes y plantillas
de AndroMDA, que generan código fuente Java de acuerdo a los cartuchos con la tecnología Java
seleccionado. Así también se generan los archivos de configuración y los scripts para la creación
de tablas en la base de datos MySQL, configurada para el uso exclusivo del aplicativo.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
123
El desarrollador puede tomar los programas Java autogenerados por el plugin de AndroMDA y sus
plantillas para codificar de manera manual las reglas de negocio particulares requeridas por el
usuario. Estos cambios deben ser el único esfuerzo de programación a realizarse por parte del
desarrollador al aplicarse este marco de trabajo. La aplicación una vez culminado su desarrollo,
puede ser desplegada en un servidor de aplicaciones que soporte la plataforma JEE, y pueda ser
accedida desde un navegador web, a modo de intranet, según el esquema de la Figura 2.
Figura 2. Proceso de desarrollo con estándar MDA.
3.2. Análisis
En resumen el prototipo funcional para el registro de fichas de actividades, debe contemplar las
opciones disponibles al usuario presentadas en la Tabla 2.
Tabla 2: Detalle de opciones del aplicativo “Registro de Fichas de actividades”
Pantalla
Concepto
Pantalla de Logon
Pantalla que valida el usuario y contraseña de los usuarios registrados
Pantalla de Inicio
Pantalla de menú con las opciones del aplicativo
Pantalla para el registro, modificación, consulta y eliminación de tareas
Mantenimiento de tareas
de actividades
Mantenimiento de usuarios
Pantalla para el registro, modificación, consulta
y eliminación de
usuarios del aplicativo
Búsqueda de Fichas
Consulta de fichas de actividades por varios criterios
Mantenimiento de Fichas y
Pantalla para el registro, modificación, consulta y eliminación de fichas
detalle de fichas
de actividades
Reporte de Fichas
Reporte de Fichas de actividades,
a ser descargado en PDF, en
formato XML o MS Excel.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
124
Para el diseño UML del proyecto, se generó un modelo UML vacío con la herramienta de
modelado MagicDraw en el archivo XML. Con la herramienta de modelado UML Magic Draw, se
diseñaron las entidades, sus atributos, y el respectivo diagrama de clases con sus relaciones. En
la Figura 3, se muestra la elaboración del diseño del diagrama de clases, las subclases y sus
relaciones de asociación.
Figura 3. Diseño UML en Herramienta MagicDraw
3.3. Desarrollo
Una vez diseñado el diagrama de clases en la herramienta de diseño UML y los métodos de
negocio asociados a cada una de las clases, se generó el archivo Maven: pom.xml. Este archivo
contiene información sobre los detalles del proyecto y de configuración utilizados por Maven para
construirlo. Dentro de este archivo se configuró la utilización del plugin de AndroMDA en la
versión 3.4 y de los cartuchos con las tecnologías JEE a implementar.
En la configuración del archivo Maven: pom.xml, se habilitó el uso de los cartuchos AndroMDA
para implementar la aplicación con los frameworks: Java Server Pages y Java Struts en la capa
de presentación, Spring para la capa de negocio, Hibernate 3.5.6 para el mapeo de objetos
relacionales y el acceso a datos y MySQL para la capa de datos.
Una vez lista la configuración, se valida y se
ejecuta el archivo pom.xml por medio de la
herramienta Maven, con el siguiente comando:
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
125
mvn org.andromda.maven.plugins:andromdapp-maven-plugin:3.4:generate
Al final, como se puede ver en la Figura 4, se espera el mensaje: "BUILD SUCCESSFUL" y la
creación de un archivo EAR que empaqueta todas los módulos generados, para su despliegue
(deploy) en el servidor JBOSS. En la figura siguiente se encuentra la interfaz de ejecución que
culmina con la generación del archivo EAR desplegable de la aplicación.
Figura 4. Ejecución del plugin AndroMDA para la generación de archivo EAR de la aplicación.
Cuando se ejecuta el plugin AndroMDA y existen objetos de tipo clases modelados con el tipo
<<entidad>>,
se realiza automáticamente el mapeo de objetos relacionales por medio del
componente Hibernate, así como la generación de los programas de acceso a datos (DAO).
Las clases entidades que en el modelo se les asignó el
atributo “manageable”, permitirán
implementar los denominados archivos CRUD (Create, Read, Update y Delete), que permitirán
usuario final la manipulación directa de los datos asociados a esa entidad. Es decir se generará
automáticamente el código y las pantallas para insertar, editar y eliminar instancias de estas
entidades.
A través de un plugin de Maven adicional, se genera y se ejecuta el script asociado con la
creación de estas clases de persistencia en sus correspondientes tablas.
Aplicando el marco de trabajo descrito se consigue que los desarrolladores puedan centrarse en
los problemas de alto nivel y reducir el tiempo de la programación de código repetitivo.
En
resumen, se registró que el tiempo de desarrollo fue de 144 horas con el esfuerzo de un
desarrollador, incluyendo la curva de aprendizaje. Para la aplicación prototipo, se generó de
manera automática los siguientes objetos:
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
126

5 tablas

65 archivos Java

5 archivos XML de mapeo relacional.

16 páginas JSP

4 archivos JAR
Al culminar el proceso de generación automática de código fuente, se determinaron las métricas
presentadas en la Tabla 3:
Tabla 3. Métricas de la construcción del prototipo: “Registro de Fichas de actividades”
Métricas
Valores
Esfuerzo
0,9 personas mes
Tiempo
144 horas
Productividad
26,6 /0,9*1 = 29,55 Puntos Objeto / Tiempo *
Líneas de código contabilizadas
Esfuerzo
7745 líneas de código
3.4. Pruebas
Enfoque ágil de desarrollo basado en pruebas
Siguiendo los lineamientos de las metodologías ágiles, el prototipo fue realizándose en varias
iteraciones, implementando funcionalidades distintas en cada una de ellas. Cada interacción
incluye un corte vertical completo de la aplicación a partir de las pantallas de la capa de
presentación hasta la comunicación con la capa de base de datos.
También se adoptó el enfoque ágil del desarrollo basado en pruebas (TDD), el cual sugiere
escribir la prueba antes de empezar a codificar. En el detalle de la prueba para cada uno de los
casos de uso descritos en el modelo UML, se definen los requisitos y escenarios requeridos por el
usuario. Una vez realizado el diseño, se ejecutan los plugins de AndroMDA para generar el
código, se codifica las reglas de negocio, se despliega la aplicación y se prueba el caso de uso.
Proceso ágil de pruebas funcionales.
A continuación se detallan las actividades realizadas por cada caso de negocio desarrollado.

Generar las entidades, interfaces de servicios y casos de uso a partir del modelo UML
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
127

Escribir una prueba y testear el caso de uso de negocio. El primer intento de ejecutar esta
prueba, obviamente fallará porque el servicio no se ha implementado todavía.

Implementar la lógica de la capa de negocio o servicio de cada caso de uso a través de la
generación automática de código y de la codificación manual.

Repetir la prueba hasta asegurarse de que fue superada.

Registrar conformidad del usuario de la prueba exitosa y continuar con las demás.
Una vez realizados los ajustes a las pruebas con errores, se debe ejecutar nuevamente los
cartuchos androMDA para procesar los archivos del modelo PSM y generar automáticamente la
nueva versión del código fuente. El mismo que deberá estar disponible para la siguiente prueba
funcional.
3.5. Implementación
Servidor de aplicaciones.
Para el despliegue de la aplicación, se debe preparar y configurar las instancias del servidor de
aplicaciones JBoss 5.1. Este servidor está basado en Java, y puede ser utilizado en cualquier
sistema operativo para el que esté disponible la máquina virtual de Java. Una vez levantados los
servicios se debe acceder al panel administrativo para configurar el respectivo datasources de la
aplicación.
Puesta en ambiente de producción.
Una vez generado el archivo EAR, en el que se encuentra empaquetada todas las librerías y
programas JAVA de la aplicación, se procede a copiar la misma en la carpeta \jboss5.1\server\default. El servidor JBoss, despliega la aplicación como se ve en la Figura 5, y si la
misma no tiene errores, estará disponible para el acceso.
Figura No. 5: Despliegue del archivo EAR en el servidor JBoss 5.1.1.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
128
Se puede acceder al prototipo a través del navegador de la preferencia, accediendo a la ruta y
puerto: http://localhost:8080/, una vez se despliegue la aplicación empaquetada con éxito, en el
contexto del servidor JBoss. En caso de no levantarse el servicio por errores al momento de
ejecutar el proceso de deploy, se debe revisar los archivos logs del servidor JBoss.
Un resumen visual del proceso de desarrollo, implementación y ejecución del prototipo funcional,
se encuentra publicado en la siguiente dirección:
https://www.youtube.com/watch?v=kY_z2kRxPPs
4. Discusión
4.1. Estimación de variables con métricas de ingeniería de software.
Una vez analizado el entorno de las empresas desarrolladoras de Software, los resultados
determinaron que durante la ejecución de desarrollos de software, consideran a las variables:
calidad, tiempo, esfuerzo y costo, como muy importantes para el éxito en los proyectos.
Con el fin de evaluar el comportamiento de las variables indicadas, se procede a realizar en
primera instancia la estimación de las variables cuantitativas: esfuerzo, tiempo, costo y tamaño
(en líneas de código) necesarios para el desarrollo de los puntos objeto de los casos de uso
planteados para el prototipo funcional: “Registro de Fichas de actividades”, con el supuesto de
que se ejecute bajo el método tradicional de cascada pura.
Para la estimación del esfuerzo, tiempo, costos y tamaño, se emplearan las métricas de ingeniería
de software: Cocomo 2 y Puntos de Función. Con los resultados teóricos del esfuerzo calculado,
se realizará la comparación respectiva con respecto a los valores que fueron consecuencia de la
implementación del prototipo funcional.
4.2. Evaluación con modelo Cocomo 2.
Para la estimación cuantitativa de las variables: esfuerzo, tiempo y costo, bajo los métodos
tradicionales, se empleó el modelo Cocomo 2.0, aplicado a la funcionalidad del prototipo
presentado. Los datos se presentan en la Tabla 4.
Para el cálculo de esfuerzo, tiempo y costo de desarrollo, se asume para realiza la estimación
que se cuenta con desarrolladores con experiencia media y que no cuentan con herramientas
CASE.
Aplicando la relación No. Puntos Objeto / Tiempo * Esfuerzo, se determina que un desarrollador
pudiera codificar 8,52 puntos objetos por mes, en la aplicación Java
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
129
Tabla 4. Cálculo de Puntos Objeto del Prototipo
Componentes
del
Sistema
Pantalla de Ingreso
Aprobación de Tarjetas de
Registro de Horario
Mantenimiento
de
actividades
Mantenimiento de usuarios
Consulta
especifica
de
Tarjetas de Registro
Mantenimiento de tarjetas
de registro
Reporte
de
Tarjetas
Registro
de
Grado
Tipo
Peso
Simple
Pantalla
2
Medio
Pantalla
5
Simple
Pantalla
2
Medio
Pantalla
5
Simple
Pantalla
2
Difícil
Pantalla
8
Medio
Reporte
4
NOP = (Puntos Objetos) x (100 %Reutilización) /100
% Reutilización =
5
NOP (Número de puntos objeto)=
26,60
Maduración y capacidad
4 (Sin Herramientas Case)
Experiencia de desarrolladores
13 (Experiencia media)
Promedio
8,5
EPM = NOP/Promedio
EPM = 26,6/8,5
EPM = 3,12 Esfuerzo de Personas por mes.
Costo = 3,12 personas * $1.600,00 = $5007,00
Tiempo = 1 mes
4.3. Evaluación del tamaño de software con el Método Punto de Función
En la Tabla 5 se establece la tabla de valores, estimados por la complejidad de la tecnología
J2EE.
4.4. Estimación de líneas de código
Para estimar las líneas de código, se deben multiplicar los puntos de función en la Tabla 6, por la
tabla de factores por lenguajes que se muestra en la Figura 6. Para el presente estudio se utilizó
como referencia la tabla QSM para la multiplicación respectiva por el número de puntos de
función calculado (QSM, 2014). El resultado es 8731 líneas de código (SLOC)
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
130
Tabla 5. Cálculo de peso promedio por categoría y ponderación de puntos de función .
Archivos e
interfaces
internas
Interfaces
Externas
Entradas Salidas
/Consultas
Valor calculado
7
7
4
Complejidad:
Simple
Promedio
Promedio Promedio Promedio
Archivos e
Componente
interfaces
internas
Pantalla de Ingreso
Aprobación
Tarjetas
de
Registro de Horario
Mantenimiento
de
actividades
Mantenimiento de usuarios
Consulta
especifica
de
Tarjetas de Registro
Mantenimiento de tarjetas
de registro
Reporte
de
Tarjetas
de
Registro
Interfaces
Externas
5
Interacciones
4
Entradas
Salidas
0
1
0
1
0
0
1
1
2
0
0
3
1
1
0
0
3
1
3
0
0
0
1
3
0
0
3
1
3
0
0
0
1
3
Puntos
Cantidad
Promedio
0
0
0
0
5,4
0
Entradas
11
4
44
Salidas
6
5
30
16
4
64
Archivos
Función
e
interfaces
internas
Interfaces
Externas
Interacciones/
Consultas
Total Puntos de
Función
Consultas
0
Tabla 6. Calculo de puntos de función por categoría de componente.
Tipo
Interacciones/
138
Se calcula el CAF (Factor de Ajuste de Complejidad)
CAF = 0.65 + 0.01 * N
CAF = 0.65 + 0.01 * 46
CAF = 1,11
AFP = FP * CAF
AFP = 138 * 1,11
AFP = 153,18
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
de
131
Figura 6: Factores QSM por lenguaje de Programación.
4.5. Evaluación de Resultados
Se presenta a continuación en la Tabla 7, el resumen referente al análisis cuantitativo de las
variables calculadas e históricas, comparadas con la información registrada en las etapas de
construcción del prototipo de software y el resultado de los indicadores establecidos:
Tabla No. 7: Resumen de análisis de variables cuantitativas y resultado de indicadores
Variable
Esfuerzo
Metodología
Tradicional
3,12
Desarrolladore
s - mes
Especificación
MDA (ágil)
0,90
desarrolladores
– mes
Indicador
variación
Reducción
del
71,15% en etapa
de desarrollo y
del 28,46%, del
esfuerzo total del
proyecto
Costo
$4.992,00
$1.440,00
Reducción
del
71,15% en costo
de salarios en
etapa
de
desarrollo.
Tiempo
. 160 horas
144 horas
Reducción
10%
del
.
Productivida
d
8,52
Puntos
Objetos – Mes
por
Programador
29,55 Puntos
Objetos – Mes
por
Programador
Mejora
en
productividad del
72,52%
Líneas
código
8731 líneas
7745 líneas
Reducción
11,29%
de
del
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
Observación
Reducción
del
esfuerzo en etapa de
desarrollo,
al
realizarse el mismo
trabajo estimado de
tres recursos con el
método
tradicional
con un solo recurso.
Reducción de costos
por ser una variable
directamente
proporcional
al
esfuerzo. No existe
costo por concepto
de
licencias
de
software.
El empleo del TDD
no disminuye de
manera significativa
el
tiempo
de
desarrollo,
pero
reduce el riesgo de
cambios
Mayor
trabajo
realizado con menos
recursos
por
la
generación
automática
de
código.
No considera líneas
de código del modelo
UML
132
5. Conclusiones y Recomendaciones
Se ha demostrado en el análisis de resultados que los datos experimentales de las variables:
esfuerzo, costo, tiempo y líneas de código registrados en la construcción del prototipo funcional
aplicado en un marco ágil de trabajo propuesto en combinación con herramientas de software
libre, tuvieron una reducción del 71,75%, 71,75%, 10%, y 11,29% respectivamente con relación a
los datos calculados en base a métricas de
estimación de software, en el contexto de las
metodologías tradicionales. La productividad en la etapa de desarrollo mejoró en un 72,52%.
El prototipo web muestra cada una de las etapas de desarrollo de la especificación MDA, en el
contexto de un marco de desarrollo ágil y una arquitectura de alto rendimiento de capas
distribuidas, cuyo despliegue fue realizado en un servidor de aplicaciones habilitado para el efecto
y con herramientas de código abierto utilizables en múltiples dispositivos, plataformas y sistemas
operativos.
Entre las limitaciones de la presente investigación, se puede citar a la curva de aprendizaje del
proceso de investigación, con respecto a la configuración de la especificación MDA y su
integración con los modelos UML generados en la etapa de diseño.
Se pudo identificar que el uso de software libre se encuentra muy afianzado, sobre todo en
proyectos de gobierno. Las empresas consideran que presenta ventajas con respecto al software
propietario, aunque la gran mayoría no trabaja en exclusividad con un determinado tipo de
software, sino que depende del proyecto.
Para finalizar, en el resumen de las encuestas realizadas se puede concluir que en nuestro país,
las metodologías ágiles tales como SCRUM, Kanban, Programación extrema, tienen mayor
aceptación en el sector de desarrollo de software que las metodologías tradicionales, aunque no
de manera exclusiva sino conforme a la necesidad de los proyectos en curso.
Las empresas consideran que el principal problema durante el proceso de desarrollo de Software
es el cambio en las especificaciones funcionales, seguido de la planificación muy optimista y que
el uso de las metodologías agiles les permitirá tener una mejor comunicación con los usuarios y
una mayor flexibilidad en los cambios requeridos. Esta información abre las posibilidades de
aceptación a nivel empresarial del marco de trabajo propuesto.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
133
Bibliografía
AESOFT. (2012). Estudio de Mercado de Hardware y Software en Ecuador. Obtenido de
http://www.revistalideres.ec/tecnologia/Estudio-mercado-software-hardwareEcuador_LIDFIL20120620_0001.pdf
Ambler, S. (2012). Agile Model Driven Development (AMDD): The Key to Scaling Agile Software
Development. Obtenido de http://www.agilemodeling.com/essays/amdd.htm
AndroMDA.org. (2012). What is AndroMDA? Obtenido de http://www.andromda.org/whatisit.html
Beck, K. (2001). Manifesto for agile software development. Obtenido de http://agilemanifesto.org
Brown, A. (Febrero de 2004). An introduction to Model Driven Architecture. Obtenido de
http://www.ibm.com/developerworks/rational/library/3100.html
Flatter,
D.
(2008).
Obtenido
de
Impact
of
Model-Driven
Standards.OMG:
http://www.omg.org/mda/mda_files/mda_1.7_cleanformat.pdf
Group, S. (2012). Chaos Manifesto.
IFPUG.
(2001).
Function
Points
IFPUG
4.3,
Quick
Reference.
Obtenido
de
http://www.totalmetrics.com/__data/assets/pdf_file/0012/2046/R087_Function-Points-IFPUG4.3-Quick-Reference.pdf
Kleppe, A. (2003). MDA Explained: The Model Driven Architecture. Addison-Wesley, ISBN-13:
978-0321194428, Pag 321.
Mellor, S. (2002). Executable UML, A Foundation for Model-Driven Architecture. Addison Wesley,
ISBN 0-201-74804-5, Pag 45-47
OMG, I. (2011). Meta Object Facility (MOF) 2.0 Query/View/Transformation Specification - Object
Management Group.
QSM.
(2014).
QSM
Function
Points
Languages
Table.
Obtenido
de
http://www.qsm.com/resources/function-point-languages-table
Stahl, T. y. (2006). Model-Driven Software Development: Technology, Engineering, Management.
Wiley, ISBN 978-0470025703, Pag 101-102.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134
134
Anexo: Estadísticas sobre el uso de metodologías ágiles y software libre.
Fueron realizadas encuestas a líderes de proyecto, analistas y programadores de empresas
dedicadas a consultorías y desarrollo de Software, en el número estimado en la muestra. Entre
las empresas que se pueden destacar están las siguientes: Gennassis S.A, CADCOMP S.A,
NDeveloper, Corlasosa, AuroraSI, Cobiscorp, IXION Technology, Latinoamericana de Software,
Devsu Software, MAINT Cia Ltda, MIWebWorks, Imagetech, Consulting & Management SAC, SIC
(Servicios Informáticos), ECS - Evolution Consulting Services, KCingle CUPIA del Ecuador, entre
otras. La tabulación de las encuestas, determino los siguientes resultados.
Estadísticas del uso Metodologías Ágiles y Software Libre
Tipo
de
Software
utilizado
en
empresas
Opinión de empresas consultoras de software sobre
consultoras de software.
ventajas del Software libre
Etapas críticas en proyectos de desarrollo de
Metodología utilizada en proyectos de software.
software
Actividades de empresas desarrolladoras de
Principales inconvenientes durante proyectos de
Software.
desarrollo de software.
Enfoque UTE, V.6-N.2, Jun.2015, pp.117 - 134