Eligiendo los instrumentos y el análisis de datos Benjamín Mamani Condori Siguiente paso consiste en planificar la recolección de los datos Recolectar datos implica tres actividades: 1) Seleccionar un instrumento de medición que sea VÁLIDO Y CONFIABLE. 2) Seleccionar técnicas de análisis de datos 3) Describir el procedimiento de cómo se recogerán y analizarán los datos. ¿Qué es el procedimiento de investigación? Es la serie de pasos metodológicos que se seguirán para ejecutar el diseño de investigación, en etapa de recolección de datos, tiene cinco pasos: 1. Procedimiento de identificación y contacto muestral. 2. Procedimiento de identificación y adecuación del instrumento. 3. Procedimiento de aplicación de instrumentos. 4. Procedimiento de organización y tabulación de datos. 5. Procedimiento de análisis de datos. ¿Qué son las técnicas de recolección de datos? Recolección de datos significa: a) Seleccionar un instrumento de medición ya existente o desarrollar uno propio, b) Aplicar instrumentos, c) Preparar las mediciones obtenidas. La selección de las técnicas depende de la naturaleza del problema. Ej. Si quieres conocer opinión de las personas: entrevistas o cuestionarios. Si te interesa cientos comportamientos de los estudiantes, más apropiado en la observación. Si se quiere saber cuánto saben los estudiantes, aplicar una prueba estandarizada. ¿Qué son las técnicas de recolección de datos? Se selecciona una técnica principal o predominante y otras auxiliares. Si existen instrumentos elaborados, lo único que tienes que hacer es adaptar de acuerdo al contexto. Si no se dispone de instrumentos, deberás elaborar o construir y validar instrumentos originales para que funcione de forma apropiada. ¿Cuáles son las etapas para construir un instrumento? Si no haz encontrado un instrumento adecuado para tu investigación, entonces tendrás que crear uno nuevo. Contempla siguientes pasos: 1) Definición de constructo 2) Propósito de la escala 3) Composición de ítems 4) Contenido 5) Definición y ordenación 6) Prevención de sesgos 7) Codificación de las respuestas 8)Puntuación de los ítems 9)Proceso de validación 10)Evaluación de validez de contenido 11) Prueba piloto 12) Aplicación final 1) Definición de constructo Revisa bibliografía y consulta a expertos en la materia. Sean actitudes, conductas o conocimientos, se debe definir las variables de forma clara y precisa, sus dimensiones e indicadores. Además conocer las teorías que sustentan esa definición. 2) Propósito de la escala Se trata de establecer el contenido del instrumento (los ítems), definir la población a que va ser dirigida, forma de administración (será llenado por mismo encuestado, será por teléfono, entrevista personal u otro) y formato. 3) Composición de ítems El ítem es la unidad básica de información de un instrumento. Debes elaborar en forma de pregunta, y una respuesta cerrada , para cada variable puede ser de 6 a10, pero depende. Se recomienda elaborar el doble de ítems y así escogerás los mejores, fiables y válidos. 4) Contenido En función al contenido, los instrumentos pueden ser unidimensionales (solo evalúa una dimensión) o multidimensionales (evalúan dos o más dimensiones o variables). 5) Definición y ordenación La definición de cada ítem será exhaustiva y mutuamente excluyente. Al formular la pregunta tomar en cuenta factor de comprensión (el lenguaje y la elección de respuestas debe adaptarse al nivel sociocultural de los individuos a quienes está dirigido. Los ítems deben ordenarse de lo más fácil a lo más difícil. 6) Prevención de sesgos Usar estrategias para controlar los posibles sesgos en el llenado. Evita preguntas dudosas, preguntas dobles. Existen varios sesgos controlables: 1) El “error de tendencia central” (Tendencia a elegir más las respuestas centrales). 2) La “deseabilidad social” (cuando se responde en función a lo que socialmente se acepta). 3) El “sesgo de aprendizaje o de proximidad” (induce a responder en forma similar que las respuestas anteriores). 4) El “error lógico” (Cuando el encuestado considera que todas las preguntas relacionados deben contestarse con igual puntaje). 7) Codificación de las respuestas En número de opciones o respuestas, pueden ser: -Dicotómicas: Sí/No; Verdadero/Falso, M/F -Policótomicas: Estoy descontento conmigo mismo/ No me valoro/Me odio/Estoy satisfecho de mí mismo. Escala de likert: El formato de un típico elemento de Likert con 5 niveles de respuesta sería: Me gusta el cine: Totalmente en desacuerdo En desacuerdo Ni de acuerdo ni en desacuerdo De acuerdo Totalmente de acuerdo La escala de Likert es un método de escala bipolar que mide tanto el grado positivo como neutral y negativo de cada enunciado. 7) Codificación de las respuestas Ejemplo: Escala de likert 8)Puntuación de los ítems Sistema de puntuación a emplearse: simple o ponderado. -Simple: Son ítems simples cuando la puntuación directa se obtiene con la sumatoria de respuestas acertadas o valores que hagan dado a cada opción. - Ponderado: Son ítems ponderados cuando el valor de cada opción de respuesta no es la misma o no se otorga el mismo valor a todos los aciertos. 9)Proceso de validación Una vez diseñado el borrador definitivo del instrumento, es decir definido las preguntas, número y orden de preguntas, requiere ser sometido a prueba de piloto, evaluando la fiabilidad y validez de la prueba. 10)Evaluación de validez de contenido Mediante criterios de jueces, se evalúa la validez de contenido del instrumento. 11) Prueba piloto Normalmente, el borrado se aplica a 30-50 personas, sean individuos semejares a la muestra. Esto permitirá: a) Si las preguntas son adecuadas y comprensibles. b) Preguntas son de extensión adecuada c) Si las respuestas corresponden a los que estamos buscando. d) Si existe resistencia psicológica o rechazo a algunas preguntas. e) Si existe ordenamiento interno lógico. f) Duración de llenado es aceptable. g) Ver la validez de constructo y fiabilidad del instrumento. 12) Aplicación final Cuando se tiene una versión final del instrumento, ya se puede aplicar de acuerdo al número de muestra definida. Hasta este momento se ha podido explicar pasos para la elaboración de instrumento. A continuación analicemos lo que significa VALIDEZ y FIABILIDAD de instrumentos. ¿Qué es la fiabilidad y la validez de los instrumentos? No se puede para nada utilizar instrumentos sin determinar antes su validez y fiabilidad. FIABILIDAD: Se relaciona a la precisión. Es el grado en que la aplicación repetida de un instrumento al mismo sujeto u objeto produce mismos resultados. Se valora a través de su consistencia, estabilidad temporal y concordancia inter-observadores. VALIDEZ: Es el grado en que un instrumento realmente mide la variable que pretende medir. La fiabilidad 1) La fiabilidad por consistencia: Se refiere al nivel en que los diferentes ítems o preguntas de una escala están relacionadas entre sí. 2) Fiabilidad por estabilidad temporal: Los resultados del test aplicado por el mismo evaluador en dos situaciones distintas (test- retest) es el mismo. 3) Fiabilidad por concordancia de inter-observadores: Resultado obtenido al ser evaluadas en las mismas condiciones por dos evaluadores distintos, en diferentes tiempos, se obtiene iguales resultados. La viabilidad 1) Validez de contenido: Si los ítems elegidos en el cuestionario son indicadores de lo que se pretende medir. Además someter a los expertos para saber si en verdad evalúa lo que deseamos medir. 2) Validez de constructo: El instrumento refleja la teoría del fenómeno o concepto que se mide. Puede medirse con análisis factorial. 3) Validez de criterio: Consiste en correlacionar los puntajes obtenidos de una prueba con otros resultados ya conocidos y válidos (llamados criterios). Ej. La prueba tendrá validez de criterio si discrimina coherentemente a dos grupos: más altas y más bajas calificaciones y esto se correlaciona con calificaciones aplicadas con otras pruebas. ¿Qué factores disminuyen la validez y fiabilidad de los instrumentos? Existen varios factores, veamos algunos importantes: 1) La improvisación: No se aplica a la ligera, revísalo minuciosamente, realice prueba piloto para ver si es comprensible, no genera confusión y si se adapta a las condiciones. 2) Utilizar instrumentos que no han sido validados en el contexto donde se va a aplicar: Las pruebas necesitan adaptación, necesita hacer un estudio piloto. 3) Instrumento inadecuado para las personas a las que se aplica: Una prueba creada para niños autistas no se puede aplicar a niños con hiperactividad. Cada prueba es creada para una población específica, usando lenguaje adecuado, considera edad, ocupación y nivel educativo. 4) La aplicación de los instrumentos en condiciones inadecuadas: Son diseñadas para ciertas condiciones. Pues el ruido, corto tiempo, hambre o falta de motivación influirá negativamente. 5) La falta de control durante la aplicación del instrumento: Se aplica donde hay interferencias y presencia de variables extrañas. Es importante que se lea bien, no falten páginas, hay un espacio adecuado para contestar. PROCEDIMIENTOS PARA CALCULAR LA FIABILIDAD Se utilizan fórmulas que producen “coeficientes de fiabilidad”, los cuales oscilan entre 0 y 1, 0 significa fiabilidad nula y 1 representa el máximo de fiabilidad. Si se acerca más a cero habrá mayor error en la medición. Los procedimientos más utilizados: 1) Consistencia interna (Alfa de Cronbach): Es método estadístico más utilizado. Se usa para medir homogeneidad y consistencia de la prueba. Buena consistencia interna es cuando alfa es superior a 0,7. 2) Medida de estabilidad (fiabilidad por test-retest): Un mismo instrumento es aplicado dos o más veces a un mismo grupo de personas. Si la correlación de resultados es alta (r>0,7) el instrumento se considera fiable. 3) Medidas paralelas o formas equivalentes de medir: Se aplica dos o más instrumentos de versiones equivalentes ( que miden lo mismo), similares contenidos, instrucciones, duración, etc. Si la correlación entre resultados de dos pruebas es alta (r>0,7). PROCEDIMIENTOS PARA CALCULAR LA FIABILIDAD 4) Método de mitades divididas: Se aplica un solo instrumento y una sola vez, pero se dividen los items. Ej. Pares e impares, luego se correlacionan los resultados de dos partes, es fiable. 5) Cotejo entre observadores: Se usa cuando se utilizan instrumentos de observación y registro. Se aplican dos o más instrumentos al mismo tiempo. Luego se calcula la correlación de aspectos coincidentes observados. Si considera fiable si hay superior a 80% de coincidencias. PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ 1) Validez de contenido: Se determina mediante el juicio de expertos en el tema, o denominado con “criterio de jueces”, se consulta a los especialistas (5 a 10) sobre la variable a medir y sus indicadores. Variables (constructos) Ítems (indicadores) Letras A, B, C, 4 Números 4, 6, 7, G. Rápidamente Ud. dirá que 4 no corresponde a la variables de letras, ni G a los de números. Pues así lo ve un experto en tema las variables y sus indicadores. No cualquier profesional es experto en todo, sino más en su campo. Las pruebas de ello son: Libros y artículos publicados, investigaciones realizadas, experiencia en el tema mínimo 5 años, etc. PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ 2) Validez de constructo: Se determina utilizando una técnica estadística llamada “Análisis Factorial”. Analiza la estructura del instrumento y agrupa los ítems según su semejanza, obteniendo factores. Para ser válido: los factores deben coincidir con los constructos o dimensiones propuestos inicialmente. Variables (constructos) Ítems (indicadores) Rendimiento matemático Pregunta 1, 2, 3. Rendimiento verbal Pregunta a, b, c. Actitudes hacia el curso de matemática Afirmación x, y, z. Si tus ítems (indicadores) en verdad miden cada una de sus variables, entonces el resultado del Análisis Factorial será así: Ítems (indicadores) Factor 1 Pregunta 1 Pregunta 2 Pregunta 3. X X x Pregunta a Pregunta b Pregunta c Afirmación x Afirmación y Afirmación z. Factor 2 Factor 3 X X x X X X PROCEDIMIENTOS PARA CALCULAR LA VALIDEZ Cada factor mide una variable. Como tienes tres variables tienes tres factores, y cada factor tiene tres ítems. Los resultados del Análisis Factorial debe coincidir con matriz de operacionalización de variables. Esa coincidencia demuestra validez de constructo, porque indica que en verdad estás midiendo lo que debes medir. 3) Validez de criterio: Se determina correlacionando las puntuaciones de la prueba con un criterio ya válido. En otras palabras, tu prueba o cuestionario debe acercarse a los resultados ya validados. Gracias Bibliografía • BISQUERA A., Rafael. Metodología de la Investigación Educativa, 2ª Edición, la Muralla, Madrid España, 2009. • BRIONES, Guillermo. Investigación Social y Educativa, Formación de docentes en Investigación Educativa, Convenio Andrés Bello. • BRIONES, Guillermo. Metodología dela Investigación Cuantitativa en las Ciencias Sociales. ICFES, Bogotá – Colombia, 1996. • HERNANDEZ S., Roberto. Metodología de la Investigación, 5ª Edición, México, 2010.
© Copyright 2024