Empirismo, método científico y estadística Ignacio Méndez Ramirez 1 E ANTECEDENTES I rechazo a las formas de empirismo absoluto, que niega el papel del sujeto en el proceso de adquisición de conocimiento, es ahora prácticamente universal. También se han rechazado las formas extremas de racionalismo con su supremacía de la razón sobre la experiencia. Como senala Rolando Garcia, "uno no sabe lo que ve, sino ve lo que sabe". Por lo que la práctica científica se ubica en un empirismo parcial. Éste no distingue entre postulados analiticos y sintéticos e insiste en que toda proposición debe ser verificada empíricamente. Trataremos de exponer algunas ideas sobre cómo se lleva a cabo esta práctica, desde el punto de vista de un estadistico aplicado: es decir de alguien con formación formal en estadística, que ha colaborado con investigadores de diversas áreas en sus trabajos cientificos . De modo muy resumido comentamos algunas posiciones en filosofía, como marco de referencia para la posición del empirismo parcial. Al final se enlistaron algunas referencias que nos han orientado, algunas se citan textualmente. Se llama a una proposición sintética, aquella para la cual su confirmación depende de la observación y experimentación. Que sea falsa o verdadera depende no del significado, sino de los hechos del mundo. No es necesaria, es decir, puede ser falsa si los hechos fueran de otro modo. Además es a posteriori. Se llama analftica a aquella proposición, que surge del razonamiento y en cierto modo es una tautología. Es decir es cierta por definición. Como rasgo distintivo su opuesto es contradictorio. Y es a posteriori. .Instituto de Investigaciones de Matemáticas Aplicadas, Universidad Nacional Autónoma de México. 375 Revista de Geografía Agrícola bilidad del pensamiento y de la comunicación. Entonces el pensamiento -que está ligado al lenguaje- nos distancia de la existencia real, la que nunca es abstracta sino siempre concreta. Hume, quien fue un gran empirista, consideró un método para distinguir si un postulado es analítico, sintético o no tiEme sentido. Se pregunta ¿su negación es contradictoria? Si se responde que sí, se concluye que se trata de una proposición analítica. Por ejemplo: 3+2=5, si preguntamos ¿3+2 = 5? como es contradictorio concluimos es analítico. Si consideramos "el perro es mamifero", su negación es contradictoria, conclUImos es analítica. Pero el postulado "el perro está en la calle", es tal que su negación no es contradictoria. Entonces no es analítico. Los empiristas lógicos del Círculo de Viena retoman a Hume y así se dice v.g. Shlick: El término causa, como se usa en la vida diaria, sólo implica la regularidad de la secuencia, porque nada más se usa para verificar la proposición en la cual ocurre... El criterio de causalidad es la predicción con éxito. Esto es todo laque podemos decir. Para los postulados no analíticos, la pregunta que se hace es ¿se deriva de impresiones o datos sensoriales? Si la respuesta es sí, se considera sintético, si la respuesta es no entonces no tiene sentido. Así, la última aseveración se considera sintética por que "el perro esta en la calle" si se deriva de datos sensoriales. Con este procedimiento Hume demostró que la causalidad no tiene sentido, lo único que observamos, como datos sensoriales, es la concatenación de hechos. De aquí el llamado problema de la inducción, cuando se observa cierto tipo de hechos por ejemplo, la repetición de que en un cierto número de instancias Este grupo de filósofos consideran que el significado de una proposición es su método de verificación. La certeza sólo se logra señalando algo y nombrándolo; v.g. "esto es un perro". Así las palabras nombran datos sensoriales y que cualquier palabra que no lo haga es sospechosa. Popper, Hempel y Ayer como seguidores del Círculo de Viena consideran que "sólo se conoce el significado de una proposición cuando se conoce cómo puede ser verificada". a un X, le sigue siempre (o casi siempre) un Y, de Más adelante Wittgenstein considera que el significado de una palabra es su uso. Hay otros muchos pensadores con posiciones alternativas al positivismo o empirismo lógico. Dentro de la llamada filosofía continental, se tiene por ejemplo a Husserl con su fenomenología. Siempre estamos conscientes de algo, se piensa en algo. aquí no podemos decir que a todo X le sigue un Y. No podemos hablar de causalidad como postulado sintético, por que no tenemos base sensorial para la causalidad. Por tanto decir que X causa Y, es una aseveración de tipo psicológico, basada en la correlación o frecuencia de ocurrencia deXy Yjuntos. Así para Hume, todos los postulados analíticos son a priori y viceversa. Y también, todos los sintéticos son a posteriori y viceversa. Kant en un tipo de conciliación del racionalismo y el empirismo, considera que todos los analíticos son a priori pero no viceversa. Es decir puede haber postulados a priori que no son analíticos, tal es el caso de los conceptos de espacio, tiempo, causalidad. También que todos los postulados a posteriori, son sintéticos. Pero hay sintéticos que no son a posteriori. Esto es, hay conocimiento del mundo en forma innata. Kierkegaard hace énfasis en los conceptos expresados con palabras, así considera: Los estructuralistas, Lévi-Strauss, Foucault o Piaget, consideran que la reflexión es sobre las estructuras de la ciencia. Es también importante la consideración de la hermenéutica, todo conocimiento implica una comprensión en la que se contiene siempre una interpretación. Así, la naturaleza estudiada mediante observación o experimentación es como la lectura de un texto, a la luz de la experiencia y subjetividad del lector es decir el interpretador, y en el trabajo de investigación científica: el científico. Chalmers (1982) se declara partidario de un realismo no representativo, así dice, páginas 226 y 227. El lenguaje abstrae de la experiencia y suprime diferencias para permitir la posi- Podemos juzgar nuestras teorías desde un punto de vista como el grado en que 376 Empirismo, método científico y estadística abordan con éxito algún aspecto del mundo, pero no podemos juzgarlas desde un punto de vista como el grado en que describen el mundo tal como realmente es, simplemente porque no tenemos acceso al mundo independientemente de nuestras teorías de una forma que nos permita valorar la exactitud de tales descripciones. Más adelante en la página 228 por grande que sea el campo de nuestras teorfas y por profundamente que exploren la estructura del mundo, siempre quedara la posibilidad de desarrollarlas a un nivel más profundo, o en frentes nuevos o más amplios. dad y esto lo hace mediada por el diseño. Es decir los modelos que se construyen toman en cuenta la teoría aceptada por el investigador, sus creencias y expectativas y de modo muy relevante, la forma de observar o experimentar el diseño. En el caso de la estadística se emplean modelos que incluyen la variabilidad en los elementos de estudio y la causada por errores de medición, en forma de variables aleatorias. Se pretende modelar las relaciones entre los conceptos, aspectos necesarios o importantes, para distinguirlos de la aleatoriedad o la contingencia. Sin embargo, es arbitraria la elección de qué se considera como fundamental o necesario y qué COIT)O contingente o aleatorio. Es frecuente que la información captada empíricamente mediante la observación o experimentación sugiera cambios en el modelo. Para procurar más objetividad, se recomienda que se plantee un modelo y se someta a crítica o contrastación con la realidad con datos distintos a los que contribuyeron a su postulación. Es decir con nueva observación o experimentación. MÉTODOS ESTADíSTICOS Podemos afirmar que en muchas áreas de la actividad científica se haya establecido, como un intento de mayor objetividad, el uso de conceptos de probabilidad y de estadística matemática para la interpretación y generalización de los resultados de experimentos y observaciones. Se parte efectivamente de construir teorías sobre el mundo, pero se juzga su adecuación en la medida que producen predicciones adecuadas. Se tiene el esquema siguiente: Diseño I r- Modelo +-- En la interpretación de nuevo interviene la teoría y la experiencia, con la subjetividad de los investigadores para obtener una consecuencia reflejada en nuevo conocimiento de esa parte natural estudiada. Es frecuente la modificación de teorías y modelos durante la interpretación , donde se busca la mayor coherencia lógica entre lo observado y lo esperado según teoría y diseño. Interpretación nuevo conocimiento I ESTADíSTICA I Definimos la estadística como el conjunto de conceptos, métodos y procedimientos para modelar la variabilidad, es decir para el estudio de fenómenos aleatorios. Aquellos en los que no se puede predecir con exactitud el resultado o evolución del fenómeno, aunque se tenga mucha información inicial, es decir que surgen por la indeterminación del mundo, sea esta esencial u operacional. Un aspecto fundamental en este proceso es la regularidad estadfstica, que consiste en que al estudiar un fenómeno aleatorio muchas veces en condiciones "constantes", los posibles resultados o formas de evolución (cambios al pasar el tiempo) ocurren con frecuencias relativas o proporciones muy estables. En este caso se conceptualiza la probabilidad de un cierto resultado o evolución del fenómeno como el valor de la frecuencia relativa estabilizada. Conocimiento previo, creencias El diseño especifica la forma de seleccionar y observar o manipular una parte dela realidad . La forma de seleccionar y observar o manipular una parte de la realidad . La forma de hacerlo depende de la parte de realidad estudiada, de la teoría existente, de instrumentos y recursos y también de las preferencias y subjetividad de los investigadores . El modelo resume de manera lo más conveniente posible, a juicio de los investigadores, los aspectos relevantes del fenómeno estudiado y sus relaciones. El modelo intenta representar la reali- 377 Revista de Geografía Agrícola Esto coincide con la proporción de cada resultado en una población muy grande o infinita de elementos. tado. Para esto el uso de los modelos es muy útil. Éste es un razonamiento muy peculiar, se le asigna a un elemento propiedades de la población o grupo de elementos a los que pertenece. Esto es un caso de inducción, que primero va de un grupo a toda una población infinita y luego por deducción de ella se concluye sobre un nuevo elemento. Además de la falibilidad clásica de la inducción , se tiene aquí otras fuentes de error, como son la definición de la población y los criterios para considerar a ese elemento como miembro de ella, además la subjetividad en la elección de diseño y modelo. Los modelos estadísticos son los que representan mediante un modelo matemático, la regularidad estadística de los posibles resultados de la evolución de un fenómeno aleatorio. Éstas son las llamadas funciones de distribución o de probabilidad. Para el uso de estos modelos es necesario una conceptualización clara de la llamada población estadística , como el conjunto muy grande o infinito de elementos con ciertas características comunes. Se mide una o más variables en cada elemento. Se considera que se presentará una regularidad estadística de esas variables, en el sentido de que las proporciones o frecuencias relativas de todas las posibles combinaciones de resultados de las variables en forma conjunta serán muy .estables. Esto se puede modelar con las distribuciones conjuntas de probabilidades, las que contienen las distribuciones marginales (de un menor número de variables); estas funciones quedan caracterizadas o determinadas por parámetros tales como vectores de medias, matrices de covarianzas o de correlaciones, probabilidades en celdas particulares, etc. Sin necesidad de modelar esta regularidad estadística, se puede sólo estar interesado en alguna características de ella, por ejemplo: medias, correlaciones, medianas u otros cuantiles. ACERCAMIENTO A LA CAUSALIDAD Como una forma de estudiar empíricamente relaciones de causalidad que han sido planteadas en forma hipotética, además de tratar de eliminar la aleatoriedad o contingencia, se tiene un procedimiento muy general que ha sido aceptado por muchos científicos (¿objetividad intersubjetiva en el método?). Este procedimiento consiste en considerar que se tiene una modalidad de un factor o característica, posible causa, que es constante en una población, y que hay otras poblaciones que tienen otras modalidades de ese factor causa, también constante cada modalidad en cada población. Se plantea una hipótesis de que ese factor causal, que define las poblaciones, tiene influencia es decir produce cambios en otra u otras características consideradas como factor efecto, y que se miden en los elementos de las poblaciones. Bajo la consideración de que la hipótesis es cierta, se esperan cambios en la regularidad estadística con la que ocurren los resultados de las variables efecto entre las poblaciones. Se pueden plantear una modelación del cambio, especificando en los modelos la forma en que las variantes de los factores causales, que definen las poblaciones modifican algunos parámetros (principalmente promedios y proporciones) que caracterizan la regularidad estadística de cada población. PREDICCiÓN EN GRUPO Se puede realizar una predicción para un grupo de elementos, que se considera por diseño y argumentación teórica , con cierta subjetividad , que es parte de la población objetivo, la llamada va ' /ez externa. Para esta población, con base en el estudio de algunos elementos baje cierto diseño, con experiencias previas y con consideraciones teóricas , se modela la regularidad estadística de la o las variables. Entonces, para un nuevo grupo de elementos de esa población se predice, con el uso del modelo y con poco error, la frecuencia o proporción en que van a ocurrir los posibles resultados , En el proceso de obtener información empírica por observación o experimentación, que pueda servir para contrastar lo observado con lo esperado según el modelo, es crucial el tener un esfuerzo muy fuerte para eliminar o hacer improbable la ocurrencia de explicaciones alternativas, aquellas que también puedan producir los mismos resultados esperados sin que el modelo causal sea cierto. PREDICCiÓN INDIVIDUAL Si se tiene un único elemento de esa ' población ; se predice la evolución de ese elemento en términos de la probabilidad de cada posible resul- 378 ._ -- - -- -- _ . _ ___ .. .. Empirismo, método científico y estadística en la medición y observación de los aspectos a estudiar, en particular los valores de los factores efectos. De aquí los procedimientos llamados ciegos para la participación de sujetos y medición de resultados en estudios médicos. En particular los llamados factores de confusión, que son aquellos que tienden a ocurrir asociados a los cambios en factores causales y que también pueden modificar la regularidad estadística de los factores considerados efectos. Por ejemplo, decir que los niños de pie grande aprenden mejor algún concepto o tarea es casi seguro un error, ya que los niños de pie grande tienen más edad que los de pie chico y es la edad la que influye en la habilidad para el aprendizaje . MEDICiÓN Y OBSERVACiÓN Los datos, la información numenca, no se pueden colectar sin ideas preexistentes sobre lo que es relevante y lo que no, sobre las formas de observar, medir o experimentar (diseño) ; sobre las formas de modelar o de analizar. Así las conclusiones están influenciadas por esas ideas preexistentes. Podemos decir que no hay hechos puros. Khun señaló que en gran medida uno ve lo que espera. Es en este contexto que las ideas estadísticas son de ayuda para procurar un acercamiento más objetivo y la búsqueda intensa de la eliminación de errores o disminuir su probabilidad y su magnitud. Para eliminar o minimizar la influencia de explicaciones alternativas, como los factores de confusión, existen varias recomendaciones generales. Si se puede experimentar, se recurre a la asignación aleatoria de variantes del factor causal a los elementos de estudio. Esto fue postulado por Fischer, porque si las muestras son grandes, el proceso de asignación aleatoria tiende a producir grupos con las mismas características de variación de todo lo que no se ha especificado en el diseño. Otro procedimiento, aplicable además de los experimentos también en estudios puramente observacionales (no experimentales), para evitar explicaciones alternativas es homogeneizar en todo el estudio factores que puedan convertirse en factores de confusión . Otra posibilidad es la formación de grupos de elementos con los mismos o casi los mismos valores de varios factores de confusión potenciales y dentro de ellos tener elementos con las variantes de los factores causales estudiados, estos grupos se conocen como bloques o estratos. Es importante destacar que en la estadística se usa un concepto de causalidad, que es el de factor de riesgo o causa probabilística, la que considera que al ocurrir la X, factor causal o de riesgo, se incrementa la probabilidad de ocurrir la Y, factor efecto. De modo más general al tener la X un cierto valor cambian las probabilidades de ocurrencia de los valores de las Y comparadas con otros valores de X. Es decir una causalidad probabilística establece que las variantes de X, el factor causal, generan poblaciones con diferente regularidad estadística para las mediciones de las variables que Finalmente otra manera de intentar la eliminación de explicaciones alternativas es mediante la inclusión en los modelos, como otros factores causales posibles, a los factores de confusión, yentonces averiguar si los factores causales aún producen cambios en la regularidad estadística de los efectos, considerando mediante el modelo que los factores de confusión estén fijos en un va lor dado. En general , si se han eliminado los factores de confusión más importantes, según conocimientos teóricos e intuición de los investigadores, con uno o más de los mecanismos señalados, se dice que hay validez interna. Note que la aleatorización, formación de bloques y la homogeneización modifican el diseño; en cambio la inclusión. de los factores en el análisis, modifica el modelo. Además se debe procurar no introducir errores sistemáticos, sesgos, miden los efectos, las Y. HIPÓTESIS TEÓRICAS Y EMPíRICAS Un aspecto importante es que tenemos dos niveles en el planteamiento de relaciones causales. el nivel conceptual, en el que se inventan los conceptos con mucha generalidad; y el operacional en el que se construyen indicadores de los conceptos con la mayor confiabilidad y validez posible . Las hipótesis teóricas establecen relaciones entre conceptos muy generales y nunca pueden ser sometidas a contrastación con la realidad, se requiere un acercamiento, que se consigue al especificar, frecuentemente de modo operacional , algunos indicadores de los factores causales y de efectos. La hipótesis empírica plantea que los indicadores de 379 Revista de Geografía Agrícola las causas producen cambios en la regularidad estadística de los indicadores de los efectos. tamaños de muestra y la magnitud de la variabilidad-; o el valor de F que resume la comparación de la variación entre medias muestra les con la variación dentro de muestras o unaji cuadrada que resume las discrepancias entre frecuencias observadas en categorías con las esperadas de acuerdo a cierta hipótesis. El esquema simplificado del estudio empírico de la causalidad probabilística es el siguiente: Elementos con el factor X 1---1] Variabilidad estadística Elementos sin el factor X I de Y f- I Otros casos son las estadísticas de prueba para comparar varios modelos, que se refieren a la diferencia en el grado en que los datos se ajustan a cada modelo. También hay otras estadísticas muy distintas por ejemplo para hipótesis multivariadas. El considerar que el estudio se repite muchas veces, consiste en suponer que la aleatoriedad del proceso cambia los resultados que se resumen en la estadística de prueba o estimador; pero que los aspectos sustantivos no cambian. Así, la repetición conceptual del estudio muchas veces, va a producir muchos, infinitos valores de la estadística, esto genera una población conceptual de estudios con el mismo diseño, pero diferentes resultados, diferentes valores de la estadística. Se estudia entonces una nueva regularidad estadístisca, la de los valores de la "estadística". Variabilidad estadística de Y Esquema para el estudio de la causalidad estadística Inferencia estadística Se pretende conocer algún aspecto de la regularidad estadística de una o varias mediciones, variables efecto, en una o más poblaciones, las que quedan definidas por variables causales. En estudios puramente descriptivos sólo hay una población y no se habla de causas o efectos, interesa describir la regularidad estadística de un conjunto de variables. Si se supone una forma de modelo para describir la regularidad estadística, entonces hay que tratar de conocer -estimar-los parámetros a partir de los datos de las muestras. Esto se conoce como estadística paramétrica. Si interesa conocer algún aspecto de la regularidad estadística sin suponer un modelo específico, se conoce como estadística no paramétrica. Hay dos enfoques dentro de este contexto, tratar de conocer los parámetros que determinan los modelos o que describen algún aspecto de la regularidad, estimación de parámetros. Otra posibilidad es el planteamiento de hipótesis estadísticas que determinan los valores de algunos parámetros. En ambos casos se recurre al mismo desarrollo conceptual, que llamaré regularidad estadística de segundo nivel. Tanto·para la estimación como para las pruebas de hipótesis, hay que considerar una población teórica que se obtendría repitiendo el estudio un número muy grande de veces y en cada ocasión se obtiene una función de los datos numéricos -llamada una "estadística"- que con un número resume algo de interés, la media de una muestra; la diferencia de medias de muestras, el valor de t -una diferencia de dos medias muestrales que toma en cuenta los Para los promedios o sus diferencias opera el teorema central del límite, se modela su regularidad estadística con la normal, la media es la media poblacionalo la diferencia de medias poblacionales y la desviación estándar de esa normal para la "estadística" es el error estándar de ella -error estándar de una media o de una diferencia de medias, de un coeficiente de regresión o de correlación, etc. El mismo teorema central del límite se usa para encontrar la regularidad estadística de la t, la F y la ji cuadrada -la usada para comparar proporciones. Los valores F y ji cuadrada aparecen en los modelos lineales y logísticos, muy útiles para modelar cambios en las medias y proporciones respectivamente, al cambiar los factores que definen varias poblaciones. Estos modelos y otros más permiten obtener los llamados intervalos de confianza para ciertos parámetros, que son intervalos, que con una confianza, probabilidad especificada usualmente de 95%, cubre el verdadero valor del parámetro de interés. También se pueden tener intervalos de confianza para predicciones de valores individuales. 380 Empirismo, método científico y estadística Lo que fundamenta las pruebas de hipótesis estadísticas es la regularidad estadística, de segundo nivel, la que ocurre al considerar que el estudios se repita un número infinito de veces, con el mismo diseño, y en cada una se obtenga el valor de la estadística. Bajo el supuesto de que la hipótesis es cierta, entonces la "estadística" t, F, ji o alguna otra mide el grado de discrepancia de los datos con la hipótesis. Si la discrepancia es grande, se rechaza la hipótesis lo que se juzga así, si es improbable p< 0.05, con referencia a la regularidad estadística de segundo nivel de esa estadística. Frecuentemente la hipótesis estadística niega la veracidad de una hipótesis científica, la que establece relaciones, causales o no, entre conceptos. Es común un mal uso de estas pruebas de hipótesis de nulidad, llamadas pruebas de significancia estadística. En el sentido de considerar improbable que los datos empíricos apoyen la hipótesis de nulidad y en consecuencia rechazarla, de ninguna manera lógica conduce a aceptar la hipótesis científica. Esto es, sólo se eliminó por improbable una explicación alternativa, el azar: la hipótesis de nulidad. Las diferencias entre promedios o proporciones, o entre modelos, etc., se declaran significativas estadísticamente, para señalar que son improbables de ocurrir nada más por azar. Sin embargo, es importante considerar que puede haber otras explicaciones alternativas como factores de confusión o errores de medición, etc. La ausencia de evidencia nunca es evidencia de ausencia. Hay que juzgar toda la investigación con su problema, marco teórico, hipótesis científica, diseño y análisis para poder finalmente tener una idea del grado de apoyo o rechazo empírico que los datos obtenidos por experimentación u observación proporcionan a una hipótesis o teoría. Es decir, finalmente no hay objetividad absoluta, se tiene un interjuego dialéctico de objetividad y subjetividad, es subjetiva la elección de poblaciones y la definición de las variables y es objetiva la forma de la regularidad estadística, sin embargo el concepto de que ella existe no lo es. La conclusión final es de carácter hermenéutico, se interpreta el conjunto, no únicamente el valor de p o la significancia. Un modelo estadístico para la regularidad de primer nivel, digamos la distribución exponencial -normal, poisson, binomial, etc.-, por un lado es analítico, ya que puede ser derivado matemáticamente a partir de ciertas premisas, y la negación de esta conclusión es contradictoria. Sin embargo, su uso sí depende de los datos empíricos, en la medida que lo consideramos adecuado, sólo si describe aproximadamente las frecuencias relativas de esos datos en nuestras grandes. Éste es un ejemplo de lo inadecuado de visiones empíristas absolutas. A fin de cuentas la distribución normal como tal no existe en la naturaleza, pero tampoco es totalmente una construcción sin referencias empíricas. 381 Revista de Geografía Agrícola BIBLIOGRAFíA Chalmers A, F. 1982. ¿Qué es esa cosa llamada ciencia? 15a ed. en español, 1994. Siglo XXI. México. neamientos para su elaboración y análisis. 3a. edición 1994. Trillas. México. ___ 1976. Modelos estadísticos lineales. Interpretación y aplicaciones. 2a. edición 1981. Consejo Nacional de Ciencia y Tecnología. México. Gigerenzer G. et al. 1989. The empire of chanceo How prObability changed science and everyday life. Cambridege University Press. Mosterin, J. 1984. Grandes temas de la filosoffa actual. Aula Abierta Salvat. Salvat. México. Hacking, 1. 1995. El surgimiento de la probabilidad. GEDISA King A; O. Keohane R. y S. Yerba. 1994. Designing social inquiry. Scientific inference in qualitativa research. Princeton University Press. Palmer, D. 1988, 1994. Looking at philosophy. The unbearable heaviness of filosophy made lighter. Mayfield Publishing CO. Méndez, l.; D. Namihira; L. Moreno y' C. Sosa. 1984. El protocolo de investigación. Li- Sánchez M., D. 1985. Aproximación a la filosofía. Aula Abierta Salvat. Salvat. México. 382
© Copyright 2025