¿Cómo plantear el problema? - Investigación Educativa

Eligiendo los instrumentos y el
análisis de datos
Benjamín Mamani Condori
Siguiente paso consiste en
planificar la recolección de los
datos
Recolectar datos implica tres actividades:
1) Seleccionar un instrumento de medición
que sea VÁLIDO Y CONFIABLE.
2) Seleccionar técnicas de análisis de datos
3) Describir el procedimiento de cómo se
recogerán y analizarán los datos.
¿Qué es el procedimiento de investigación?
Es la serie de pasos metodológicos que se seguirán
para ejecutar el diseño de investigación, en etapa de
recolección de datos, tiene cinco pasos:
1. Procedimiento de identificación y contacto
muestral.
2. Procedimiento de identificación y adecuación del
instrumento.
3. Procedimiento de aplicación de instrumentos.
4. Procedimiento de organización y tabulación de
datos.
5. Procedimiento de análisis de datos.
¿Qué son las técnicas de recolección de datos?
Recolección de datos significa: a) Seleccionar un
instrumento de medición ya existente o desarrollar
uno propio, b) Aplicar instrumentos, c) Preparar las
mediciones obtenidas.
La selección de las técnicas depende de la naturaleza
del problema. Ej. Si quieres conocer opinión de las
personas: entrevistas o cuestionarios. Si te interesa
cientos comportamientos de los estudiantes, más
apropiado en la observación. Si se quiere saber
cuánto saben los estudiantes, aplicar una prueba
estandarizada.
¿Qué son las técnicas de recolección de datos?
Se selecciona una técnica principal o
predominante y otras auxiliares.
Si existen instrumentos elaborados, lo único que
tienes que hacer es adaptar de acuerdo al
contexto.
Si no se dispone de instrumentos, deberás
elaborar o construir y validar instrumentos
originales para que funcione de forma apropiada.
¿Cuáles son las etapas para construir un instrumento?
Si no haz encontrado un instrumento adecuado para tu
investigación, entonces tendrás que crear uno nuevo.
Contempla siguientes pasos:
1)
Definición
de
constructo
2) Propósito de la escala
3) Composición de ítems
4) Contenido
5)
Definición
y
ordenación
6) Prevención de sesgos
7) Codificación de las
respuestas
8)Puntuación de los ítems
9)Proceso de validación
10)Evaluación de validez
de contenido
11) Prueba piloto
12) Aplicación final
1) Definición de constructo
Revisa bibliografía y consulta a expertos en la materia.
Sean actitudes, conductas o conocimientos, se debe
definir las variables de forma clara y precisa, sus
dimensiones e indicadores. Además conocer las teorías
que sustentan esa definición.
2) Propósito de la escala
Se trata de establecer el contenido del instrumento (los
ítems), definir la población a que va ser dirigida, forma
de administración (será llenado por mismo encuestado,
será por teléfono, entrevista personal u otro) y formato.
3) Composición de ítems
El ítem es la unidad básica de información de un
instrumento. Debes elaborar en forma de pregunta, y
una respuesta cerrada , para cada variable puede ser de 6
a10, pero depende. Se recomienda elaborar el doble de
ítems y así escogerás los mejores, fiables y válidos.
4) Contenido
En función al contenido, los instrumentos pueden ser
unidimensionales (solo evalúa una dimensión) o
multidimensionales (evalúan dos o más dimensiones o
variables).
5) Definición y ordenación
La definición de cada ítem será exhaustiva y
mutuamente excluyente. Al formular la
pregunta tomar en cuenta factor de
comprensión (el lenguaje y la elección de
respuestas
debe adaptarse al nivel
sociocultural de los individuos a quienes
está dirigido. Los ítems deben ordenarse de
lo más fácil a lo más difícil.
6) Prevención de sesgos
Usar estrategias para controlar los posibles sesgos en el
llenado. Evita preguntas dudosas, preguntas dobles.
Existen varios sesgos controlables:
1) El “error de tendencia central” (Tendencia a elegir
más las respuestas centrales).
2) La “deseabilidad social” (cuando se responde en
función a lo que socialmente se acepta).
3) El “sesgo de aprendizaje o de proximidad” (induce a
responder en forma similar que las respuestas
anteriores).
4) El “error lógico” (Cuando el encuestado considera
que todas las preguntas relacionados deben
contestarse con igual puntaje).
7) Codificación de las respuestas
En número de opciones o respuestas, pueden ser:
-Dicotómicas: Sí/No; Verdadero/Falso, M/F
-Policótomicas: Estoy descontento conmigo mismo/ No me
valoro/Me odio/Estoy satisfecho de mí mismo.
Escala de likert:
El formato de un típico elemento de Likert con 5 niveles de
respuesta sería:
Me gusta el cine:
Totalmente en desacuerdo
En desacuerdo
Ni de acuerdo ni en desacuerdo
De acuerdo
Totalmente de acuerdo
La escala de Likert es un método de escala bipolar que mide tanto
el grado positivo como neutral y negativo de cada enunciado.
7) Codificación de las respuestas
Ejemplo: Escala de likert
8)Puntuación de los ítems
Sistema de puntuación a emplearse: simple o
ponderado.
-Simple: Son ítems simples cuando la puntuación
directa se obtiene con la sumatoria de respuestas
acertadas o valores que hagan dado a cada
opción.
- Ponderado: Son ítems ponderados cuando el
valor de cada opción de respuesta no es la misma
o no se otorga el mismo valor a todos los aciertos.
9)Proceso de validación
Una vez diseñado el borrador definitivo del
instrumento, es decir definido las preguntas,
número y orden de preguntas, requiere ser
sometido a prueba de piloto, evaluando la
fiabilidad y validez de la prueba.
10)Evaluación de validez de contenido
Mediante criterios de jueces, se evalúa la validez
de contenido del instrumento.
11) Prueba piloto
Normalmente, el borrado se aplica a 30-50 personas,
sean individuos semejares a la muestra. Esto permitirá:
a) Si las preguntas son adecuadas y comprensibles.
b) Preguntas son de extensión adecuada
c) Si las respuestas corresponden a los que estamos
buscando.
d) Si existe resistencia psicológica o rechazo a algunas
preguntas.
e) Si existe ordenamiento interno lógico.
f) Duración de llenado es aceptable.
g) Ver la validez de constructo y fiabilidad del
instrumento.
12) Aplicación final
Cuando se tiene una versión final del instrumento, ya se
puede aplicar de acuerdo al número de muestra definida.
Hasta este momento se ha podido explicar pasos para la
elaboración de instrumento.
A continuación analicemos lo que significa VALIDEZ y
FIABILIDAD de instrumentos.
¿Qué es la fiabilidad y la validez de los
instrumentos?
No se puede para nada utilizar instrumentos sin
determinar antes su validez y fiabilidad.
FIABILIDAD: Se relaciona a la precisión. Es el grado en
que la aplicación repetida de un instrumento al mismo
sujeto u objeto produce mismos resultados. Se valora a
través de su consistencia, estabilidad temporal y
concordancia inter-observadores.
VALIDEZ: Es el grado en que un instrumento realmente
mide la variable que pretende medir.
La fiabilidad
1) La fiabilidad por consistencia:
Se refiere al nivel en que los diferentes ítems o
preguntas de una escala están relacionadas entre sí.
2) Fiabilidad por estabilidad temporal:
Los resultados del test aplicado por el mismo
evaluador en dos situaciones distintas (test- retest) es
el mismo.
3) Fiabilidad por concordancia de inter-observadores:
Resultado obtenido al ser evaluadas en las mismas
condiciones por dos evaluadores distintos, en
diferentes tiempos, se obtiene iguales resultados.
La viabilidad
1) Validez de contenido:
Si los ítems elegidos en el cuestionario son indicadores de lo que se
pretende medir. Además someter a los expertos para saber si en
verdad evalúa lo que deseamos medir.
2) Validez de constructo:
El instrumento refleja la teoría del fenómeno o concepto que se
mide. Puede medirse con análisis factorial.
3) Validez de criterio:
Consiste en correlacionar los puntajes obtenidos de una prueba
con otros resultados ya conocidos y válidos (llamados criterios). Ej.
La prueba tendrá validez de criterio si discrimina coherentemente
a dos grupos: más altas y más bajas calificaciones y esto se
correlaciona con calificaciones aplicadas con otras pruebas.
¿Qué factores disminuyen la validez y fiabilidad
de los instrumentos?
Existen varios factores, veamos algunos importantes:
1) La improvisación: No se aplica a la ligera, revísalo minuciosamente, realice
prueba piloto para ver si es comprensible, no genera confusión y si se adapta
a las condiciones.
2) Utilizar instrumentos que no han sido validados en el contexto donde se va
a aplicar: Las pruebas necesitan adaptación, necesita hacer un estudio piloto.
3) Instrumento inadecuado para las personas a las que se aplica: Una prueba
creada para niños autistas no se puede aplicar a niños con hiperactividad.
Cada prueba es creada para una población específica, usando lenguaje
adecuado, considera edad, ocupación y nivel educativo.
4) La aplicación de los instrumentos en condiciones inadecuadas: Son
diseñadas para ciertas condiciones. Pues el ruido, corto tiempo, hambre o
falta de motivación influirá negativamente.
5) La falta de control durante la aplicación del instrumento: Se aplica donde
hay interferencias y presencia de variables extrañas. Es importante que se lea
bien, no falten páginas, hay un espacio adecuado para contestar.
PROCEDIMIENTOS PARA CALCULAR LA FIABILIDAD
Se utilizan fórmulas que producen “coeficientes de fiabilidad”, los
cuales oscilan entre 0 y 1, 0 significa fiabilidad nula y 1 representa el
máximo de fiabilidad. Si se acerca más a cero habrá mayor error en
la medición. Los procedimientos más utilizados:
1) Consistencia interna (Alfa de Cronbach): Es método estadístico
más utilizado. Se usa para medir homogeneidad y consistencia
de la prueba. Buena consistencia interna es cuando alfa es
superior a 0,7.
2) Medida de estabilidad (fiabilidad por test-retest): Un mismo
instrumento es aplicado dos o más veces a un mismo grupo de
personas. Si la correlación de resultados es alta (r>0,7) el
instrumento se considera fiable.
3) Medidas paralelas o formas equivalentes de medir: Se aplica
dos o más instrumentos de versiones equivalentes ( que miden
lo mismo), similares contenidos, instrucciones, duración, etc. Si
la correlación entre resultados de dos pruebas es alta (r>0,7).
PROCEDIMIENTOS PARA CALCULAR LA FIABILIDAD
4) Método de mitades divididas: Se aplica un solo instrumento y
una sola vez, pero se dividen los items. Ej. Pares e impares, luego se
correlacionan los resultados de dos partes, es fiable.
5) Cotejo entre observadores: Se usa cuando se utilizan
instrumentos de observación y registro. Se aplican dos o más
instrumentos al mismo tiempo. Luego se calcula la correlación de
aspectos coincidentes observados. Si considera fiable si hay
superior a 80% de coincidencias.
PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ
1) Validez de contenido: Se determina mediante el juicio de
expertos en el tema, o denominado con “criterio de jueces”, se
consulta a los especialistas (5 a 10) sobre la variable a medir y
sus indicadores.
Variables (constructos)
Ítems (indicadores)
Letras
A, B, C, 4
Números
4, 6, 7, G.
Rápidamente Ud. dirá que 4 no corresponde a la variables de letras,
ni G a los de números. Pues así lo ve un experto en tema las
variables y sus indicadores.
No cualquier profesional es experto en todo, sino más en su campo.
Las pruebas de ello son: Libros y artículos publicados,
investigaciones realizadas, experiencia en el tema mínimo 5 años,
etc.
PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ
2) Validez de constructo: Se determina utilizando una técnica estadística llamada
“Análisis Factorial”. Analiza la estructura del instrumento y agrupa los ítems
según su semejanza, obteniendo factores. Para ser válido: los factores deben
coincidir con los constructos o dimensiones propuestos inicialmente.
Variables (constructos)
Ítems (indicadores)
Rendimiento matemático
Pregunta 1, 2, 3.
Rendimiento verbal
Pregunta a, b, c.
Actitudes hacia el curso de matemática
Afirmación x, y, z.
Si tus ítems (indicadores) en verdad miden cada una de sus variables, entonces el
resultado del Análisis Factorial será así:
Ítems (indicadores)
Factor 1
Pregunta 1
Pregunta 2
Pregunta 3.
X
X
x
Pregunta a
Pregunta b
Pregunta c
Afirmación x
Afirmación y
Afirmación z.
Factor 2
Factor 3
X
X
x
X
X
X
PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ
Cada factor mide una variable. Como tienes tres variables
tienes tres factores, y cada factor tiene tres ítems.
Los resultados del Análisis Factorial debe coincidir con
matriz de operacionalización de variables. Esa
coincidencia demuestra validez de constructo, porque
indica que en verdad estás midiendo lo que debes medir.
3) Validez de criterio: Se determina correlacionando las
puntuaciones de la prueba con un criterio ya válido. En
otras palabras, tu prueba o cuestionario debe
acercarse a los resultados ya validados.
Gracias
Bibliografía
• BISQUERA A., Rafael. Metodología de la
Investigación Educativa, 2ª Edición, la Muralla,
Madrid España, 2009.
• BRIONES, Guillermo. Investigación Social y
Educativa, Formación de docentes en
Investigación Educativa, Convenio Andrés Bello.
• BRIONES, Guillermo. Metodología dela
Investigación Cuantitativa en las Ciencias Sociales.
ICFES, Bogotá – Colombia, 1996.
• HERNANDEZ S., Roberto. Metodología de la
Investigación, 5ª Edición, México, 2010.