Empirismo, método científico y estadística

Empirismo, método científico y
estadística
Ignacio Méndez Ramirez 1
E
ANTECEDENTES
I rechazo a las formas de empirismo absoluto,
que niega el papel del sujeto en el proceso de
adquisición de conocimiento, es ahora prácticamente universal. También se han rechazado las
formas extremas de racionalismo con su supremacía de la razón sobre la experiencia. Como senala
Rolando Garcia, "uno no sabe lo que ve, sino ve lo
que sabe". Por lo que la práctica científica se ubica
en un empirismo parcial. Éste no distingue entre
postulados analiticos y sintéticos e insiste en que
toda proposición debe ser verificada empíricamente. Trataremos de exponer algunas ideas sobre
cómo se lleva a cabo esta práctica, desde el punto
de vista de un estadistico aplicado: es decir de
alguien con formación formal en estadística, que ha
colaborado con investigadores de diversas áreas
en sus trabajos cientificos .
De modo muy resumido comentamos algunas posiciones en filosofía, como marco de referencia para la posición del empirismo parcial. Al final
se enlistaron algunas referencias que nos han
orientado, algunas se citan textualmente.
Se llama a una proposición sintética, aquella
para la cual su confirmación depende de la observación y experimentación. Que sea falsa o verdadera depende no del significado, sino de los hechos
del mundo. No es necesaria, es decir, puede ser
falsa si los hechos fueran de otro modo. Además
es a posteriori. Se llama analftica a aquella proposición, que surge del razonamiento y en cierto
modo es una tautología. Es decir es cierta por
definición. Como rasgo distintivo su opuesto es
contradictorio. Y es a posteriori.
.Instituto de Investigaciones de Matemáticas Aplicadas, Universidad Nacional Autónoma de México.
375
Revista
de Geografía Agrícola
bilidad del pensamiento y de la comunicación. Entonces el pensamiento -que
está ligado al lenguaje- nos distancia de
la existencia real, la que nunca es abstracta sino siempre concreta.
Hume, quien fue un gran empirista, consideró
un método para distinguir si un postulado es analítico, sintético o no tiEme sentido. Se pregunta ¿su
negación es contradictoria? Si se responde que sí,
se concluye que se trata de una proposición analítica. Por ejemplo: 3+2=5, si preguntamos ¿3+2 =
5? como es contradictorio concluimos es analítico.
Si consideramos "el perro es mamifero", su negación es contradictoria, conclUImos es analítica.
Pero el postulado "el perro está en la calle", es tal
que su negación no es contradictoria. Entonces no
es analítico.
Los empiristas lógicos del Círculo de Viena
retoman a Hume y así se dice v.g. Shlick:
El término causa, como se usa en la vida
diaria, sólo implica la regularidad de la
secuencia, porque nada más se usa para
verificar la proposición en la cual ocurre...
El criterio de causalidad es la predicción
con éxito. Esto es todo laque podemos
decir.
Para los postulados no analíticos, la pregunta
que se hace es ¿se deriva de impresiones o datos
sensoriales? Si la respuesta es sí, se considera
sintético, si la respuesta es no entonces no tiene
sentido. Así, la última aseveración se considera
sintética por que "el perro esta en la calle" si se
deriva de datos sensoriales. Con este procedimiento Hume demostró que la causalidad no tiene sentido, lo único que observamos, como datos
sensoriales, es la concatenación de hechos. De
aquí el llamado problema de la inducción, cuando
se observa cierto tipo de hechos por ejemplo, la
repetición de que en un cierto número de instancias
Este grupo de filósofos consideran que el
significado de una proposición es su método de
verificación. La certeza sólo se logra señalando
algo y nombrándolo; v.g. "esto es un perro". Así las
palabras nombran datos sensoriales y que cualquier palabra que no lo haga es sospechosa.
Popper, Hempel y Ayer como seguidores
del Círculo de Viena consideran que "sólo se conoce el significado de una proposición cuando se
conoce cómo puede ser verificada".
a un X, le sigue siempre (o casi siempre) un Y, de
Más adelante Wittgenstein considera que el
significado de una palabra es su uso. Hay otros
muchos pensadores con posiciones alternativas al
positivismo o empirismo lógico. Dentro de la llamada filosofía continental, se tiene por ejemplo a
Husserl con su fenomenología. Siempre estamos
conscientes de algo, se piensa en algo.
aquí no podemos decir que a todo X le sigue un Y.
No podemos hablar de causalidad como postulado
sintético, por que no tenemos base sensorial para
la causalidad. Por tanto decir que X causa Y, es una
aseveración de tipo psicológico, basada en la correlación o frecuencia de ocurrencia deXy Yjuntos.
Así para Hume, todos los postulados analíticos son
a priori y viceversa. Y también, todos los sintéticos
son a posteriori y viceversa. Kant en un tipo de
conciliación del racionalismo y el empirismo, considera que todos los analíticos son a priori pero no
viceversa. Es decir puede haber postulados a priori
que no son analíticos, tal es el caso de los conceptos de espacio, tiempo, causalidad. También que
todos los postulados a posteriori, son sintéticos.
Pero hay sintéticos que no son a posteriori. Esto es,
hay conocimiento del mundo en forma innata.
Kierkegaard hace énfasis en los conceptos
expresados con palabras, así considera:
Los estructuralistas, Lévi-Strauss, Foucault o
Piaget, consideran que la reflexión es sobre las
estructuras de la ciencia. Es también importante la
consideración de la hermenéutica, todo conocimiento implica una comprensión en la que se contiene siempre una interpretación. Así, la naturaleza
estudiada mediante observación o experimentación es como la lectura de un texto, a la luz de la
experiencia y subjetividad del lector es decir el
interpretador, y en el trabajo de investigación científica: el científico. Chalmers (1982) se declara partidario de un realismo no representativo, así dice,
páginas 226 y 227.
El lenguaje abstrae de la experiencia y
suprime diferencias para permitir la posi-
Podemos juzgar nuestras teorías desde
un punto de vista como el grado en que
376
Empirismo, método científico y estadística
abordan con éxito algún aspecto del mundo, pero no podemos juzgarlas desde un
punto de vista como el grado en que
describen el mundo tal como realmente
es, simplemente porque no tenemos acceso al mundo independientemente de
nuestras teorías de una forma que nos
permita valorar la exactitud de tales descripciones. Más adelante en la página
228 por grande que sea el campo de
nuestras teorfas y por profundamente
que exploren la estructura del mundo,
siempre quedara la posibilidad de desarrollarlas a un nivel más profundo, o en
frentes nuevos o más amplios.
dad y esto lo hace mediada por el diseño. Es decir
los modelos que se construyen toman en cuenta la
teoría aceptada por el investigador, sus creencias
y expectativas y de modo muy relevante, la forma
de observar o experimentar el diseño. En el caso
de la estadística se emplean modelos que incluyen
la variabilidad en los elementos de estudio y la
causada por errores de medición, en forma de
variables aleatorias. Se pretende modelar las relaciones entre los conceptos, aspectos necesarios
o importantes, para distinguirlos de la aleatoriedad o la contingencia. Sin embargo, es arbitraria la
elección de qué se considera como fundamental o
necesario y qué COIT)O contingente o aleatorio. Es
frecuente que la información captada empíricamente mediante la observación o experimentación
sugiera cambios en el modelo. Para procurar más
objetividad, se recomienda que se plantee un modelo y se someta a crítica o contrastación con la
realidad con datos distintos a los que contribuyeron
a su postulación. Es decir con nueva observación
o experimentación.
MÉTODOS ESTADíSTICOS
Podemos afirmar que en muchas áreas de la
actividad científica se haya establecido, como un
intento de mayor objetividad, el uso de conceptos
de probabilidad y de estadística matemática para
la interpretación y generalización de los resultados
de experimentos y observaciones. Se parte efectivamente de construir teorías sobre el mundo, pero
se juzga su adecuación en la medida que producen
predicciones adecuadas. Se tiene el esquema siguiente:
Diseño
I
r-
Modelo
+--
En la interpretación de nuevo interviene la
teoría y la experiencia, con la subjetividad de los
investigadores para obtener una consecuencia reflejada en nuevo conocimiento de esa parte natural
estudiada. Es frecuente la modificación de teorías
y modelos durante la interpretación , donde se busca la mayor coherencia lógica entre lo observado y
lo esperado según teoría y diseño.
Interpretación
nuevo
conocimiento
I
ESTADíSTICA
I
Definimos la estadística como el conjunto de
conceptos, métodos y procedimientos para modelar la variabilidad, es decir para el estudio de fenómenos aleatorios. Aquellos en los que no se puede
predecir con exactitud el resultado o evolución del
fenómeno, aunque se tenga mucha información
inicial, es decir que surgen por la indeterminación
del mundo, sea esta esencial u operacional. Un
aspecto fundamental en este proceso es la regularidad estadfstica, que consiste en que al estudiar
un fenómeno aleatorio muchas veces en condiciones "constantes", los posibles resultados o formas
de evolución (cambios al pasar el tiempo) ocurren
con frecuencias relativas o proporciones muy estables. En este caso se conceptualiza la probabilidad
de un cierto resultado o evolución del fenómeno
como el valor de la frecuencia relativa estabilizada.
Conocimiento previo, creencias
El diseño especifica la forma de seleccionar y
observar o manipular una parte dela realidad . La
forma de seleccionar y observar o manipular una
parte de la realidad . La forma de hacerlo depende
de la parte de realidad estudiada, de la teoría
existente, de instrumentos y recursos y también de
las preferencias y subjetividad de los investigadores .
El modelo resume de manera lo más conveniente posible, a juicio de los investigadores, los
aspectos relevantes del fenómeno estudiado y sus
relaciones. El modelo intenta representar la reali-
377
Revista de Geografía Agrícola
Esto coincide con la proporción de cada resultado
en una población muy grande o infinita de elementos.
tado. Para esto el uso de los modelos es muy útil.
Éste es un razonamiento muy peculiar, se le asigna
a un elemento propiedades de la población o grupo
de elementos a los que pertenece. Esto es un caso
de inducción, que primero va de un grupo a toda
una población infinita y luego por deducción de ella
se concluye sobre un nuevo elemento. Además de
la falibilidad clásica de la inducción , se tiene aquí
otras fuentes de error, como son la definición de la
población y los criterios para considerar a ese
elemento como miembro de ella, además la subjetividad en la elección de diseño y modelo.
Los modelos estadísticos son los que representan mediante un modelo matemático, la regularidad estadística de los posibles resultados de la
evolución de un fenómeno aleatorio. Éstas son las
llamadas funciones de distribución o de probabilidad. Para el uso de estos modelos es necesario
una conceptualización clara de la llamada población estadística , como el conjunto muy grande o
infinito de elementos con ciertas características
comunes. Se mide una o más variables en cada
elemento. Se considera que se presentará una
regularidad estadística de esas variables, en el
sentido de que las proporciones o frecuencias relativas de todas las posibles combinaciones de
resultados de las variables en forma conjunta serán
muy .estables. Esto se puede modelar con las distribuciones conjuntas de probabilidades, las que
contienen las distribuciones marginales (de un menor número de variables); estas funciones quedan
caracterizadas o determinadas por parámetros tales como vectores de medias, matrices de covarianzas o de correlaciones, probabilidades en
celdas particulares, etc. Sin necesidad de modelar
esta regularidad estadística, se puede sólo estar
interesado en alguna características de ella, por
ejemplo: medias, correlaciones, medianas u otros
cuantiles.
ACERCAMIENTO A LA CAUSALIDAD
Como una forma de estudiar empíricamente
relaciones de causalidad que han sido planteadas
en forma hipotética, además de tratar de eliminar
la aleatoriedad o contingencia, se tiene un procedimiento muy general que ha sido aceptado por
muchos científicos (¿objetividad intersubjetiva en
el método?). Este procedimiento consiste en considerar que se tiene una modalidad de un factor o
característica, posible causa, que es constante en
una población, y que hay otras poblaciones que
tienen otras modalidades de ese factor causa, también constante cada modalidad en cada población.
Se plantea una hipótesis de que ese factor causal,
que define las poblaciones, tiene influencia es decir
produce cambios en otra u otras características
consideradas como factor efecto, y que se miden
en los elementos de las poblaciones. Bajo la consideración de que la hipótesis es cierta, se esperan
cambios en la regularidad estadística con la que
ocurren los resultados de las variables efecto entre
las poblaciones. Se pueden plantear una modelación del cambio, especificando en los modelos la
forma en que las variantes de los factores causales,
que definen las poblaciones modifican algunos parámetros (principalmente promedios y proporciones) que caracterizan la regularidad estadística de
cada población.
PREDICCiÓN EN GRUPO
Se puede realizar una predicción para un
grupo de elementos, que se considera por diseño
y argumentación teórica , con cierta subjetividad ,
que es parte de la población objetivo, la llamada
va ' /ez externa. Para esta población, con base en
el estudio de algunos elementos baje cierto diseño,
con experiencias previas y con consideraciones
teóricas , se modela la regularidad estadística de la
o las variables. Entonces, para un nuevo grupo de
elementos de esa población se predice, con el uso
del modelo y con poco error, la frecuencia o proporción en que van a ocurrir los posibles resultados ,
En el proceso de obtener información empírica por observación o experimentación, que pueda
servir para contrastar lo observado con lo esperado
según el modelo, es crucial el tener un esfuerzo
muy fuerte para eliminar o hacer improbable la
ocurrencia de explicaciones alternativas, aquellas
que también puedan producir los mismos resultados esperados sin que el modelo causal sea cierto.
PREDICCiÓN INDIVIDUAL
Si se tiene un único elemento de esa ' población ; se predice la evolución de ese elemento en
términos de la probabilidad de cada posible resul-
378
._ --
- -- -- _ .
_ ___
..
..
Empirismo, método científico y estadística
en la medición y observación de los aspectos a
estudiar, en particular los valores de los factores
efectos. De aquí los procedimientos llamados ciegos para la participación de sujetos y medición de
resultados en estudios médicos.
En particular los llamados factores de confusión,
que son aquellos que tienden a ocurrir asociados a
los cambios en factores causales y que también
pueden modificar la regularidad estadística de los
factores considerados efectos. Por ejemplo, decir
que los niños de pie grande aprenden mejor algún
concepto o tarea es casi seguro un error, ya que
los niños de pie grande tienen más edad que los de
pie chico y es la edad la que influye en la habilidad
para el aprendizaje .
MEDICiÓN Y OBSERVACiÓN
Los datos, la información numenca, no se
pueden colectar sin ideas preexistentes sobre lo
que es relevante y lo que no, sobre las formas de
observar, medir o experimentar (diseño) ; sobre las
formas de modelar o de analizar. Así las conclusiones están influenciadas por esas ideas preexistentes. Podemos decir que no hay hechos puros. Khun
señaló que en gran medida uno ve lo que espera.
Es en este contexto que las ideas estadísticas son
de ayuda para procurar un acercamiento más objetivo y la búsqueda intensa de la eliminación de
errores o disminuir su probabilidad y su magnitud.
Para eliminar o minimizar la influencia de
explicaciones alternativas, como los factores de
confusión, existen varias recomendaciones generales. Si se puede experimentar, se recurre a la
asignación aleatoria de variantes del factor causal
a los elementos de estudio. Esto fue postulado por
Fischer, porque si las muestras son grandes, el
proceso de asignación aleatoria tiende a producir
grupos con las mismas características de variación
de todo lo que no se ha especificado en el diseño.
Otro procedimiento, aplicable además de los experimentos también en estudios puramente observacionales (no experimentales), para evitar explicaciones alternativas es homogeneizar en todo el
estudio factores que puedan convertirse en factores de confusión . Otra posibilidad es la formación
de grupos de elementos con los mismos o casi los
mismos valores de varios factores de confusión
potenciales y dentro de ellos tener elementos con
las variantes de los factores causales estudiados,
estos grupos se conocen como bloques o estratos.
Es importante destacar que en la estadística
se usa un concepto de causalidad, que es el de
factor de riesgo o causa probabilística, la que considera que al ocurrir la X, factor causal o de riesgo,
se incrementa la probabilidad de ocurrir la Y, factor
efecto. De modo más general al tener la X un cierto
valor cambian las probabilidades de ocurrencia de
los valores de las Y comparadas con otros valores
de X. Es decir una causalidad probabilística establece que las variantes de X, el factor causal,
generan poblaciones con diferente regularidad estadística para las mediciones de las variables que
Finalmente otra manera de intentar la eliminación de explicaciones alternativas es mediante la
inclusión en los modelos, como otros factores causales posibles, a los factores de confusión, yentonces averiguar si los factores causales aún producen
cambios en la regularidad estadística de los efectos, considerando mediante el modelo que los factores de confusión estén fijos en un va lor dado. En
general , si se han eliminado los factores de confusión más importantes, según conocimientos teóricos e intuición de los investigadores, con uno o más
de los mecanismos señalados, se dice que hay
validez interna. Note que la aleatorización, formación de bloques y la homogeneización modifican
el diseño; en cambio la inclusión. de los factores
en el análisis, modifica el modelo. Además se debe
procurar no introducir errores sistemáticos, sesgos,
miden los efectos, las Y.
HIPÓTESIS TEÓRICAS Y EMPíRICAS
Un aspecto importante es que tenemos dos
niveles en el planteamiento de relaciones causales.
el nivel conceptual, en el que se inventan los conceptos con mucha generalidad; y el operacional en
el que se construyen indicadores de los conceptos
con la mayor confiabilidad y validez posible . Las
hipótesis teóricas establecen relaciones entre conceptos muy generales y nunca pueden ser sometidas a contrastación con la realidad, se requiere un
acercamiento, que se consigue al especificar, frecuentemente de modo operacional , algunos indicadores de los factores causales y de efectos. La
hipótesis empírica plantea que los indicadores de
379
Revista de Geografía Agrícola
las causas producen cambios en la regularidad
estadística de los indicadores de los efectos.
tamaños de muestra y la magnitud de la variabilidad-; o el valor de F que resume la comparación
de la variación entre medias muestra les con la
variación dentro de muestras o unaji cuadrada que
resume las discrepancias entre frecuencias observadas en categorías con las esperadas de acuerdo
a cierta hipótesis.
El esquema simplificado del estudio empírico
de la causalidad probabilística es el siguiente:
Elementos con el factor X
1---1] Variabilidad estadística
Elementos sin el factor X
I de Y
f-
I
Otros casos son las estadísticas de prueba
para comparar varios modelos, que se refieren a la
diferencia en el grado en que los datos se ajustan
a cada modelo. También hay otras estadísticas
muy distintas por ejemplo para hipótesis multivariadas. El considerar que el estudio se repite muchas
veces, consiste en suponer que la aleatoriedad del
proceso cambia los resultados que se resumen en
la estadística de prueba o estimador; pero que los
aspectos sustantivos no cambian. Así, la repetición
conceptual del estudio muchas veces, va a producir
muchos, infinitos valores de la estadística, esto
genera una población conceptual de estudios con
el mismo diseño, pero diferentes resultados, diferentes valores de la estadística. Se estudia entonces una nueva regularidad estadístisca, la de los
valores de la "estadística".
Variabilidad estadística
de Y
Esquema para el estudio de la causalidad estadística
Inferencia estadística
Se pretende conocer algún aspecto de la
regularidad estadística de una o varias mediciones,
variables efecto, en una o más poblaciones, las que
quedan definidas por variables causales. En estudios puramente descriptivos sólo hay una población y no se habla de causas o efectos, interesa
describir la regularidad estadística de un conjunto
de variables. Si se supone una forma de modelo
para describir la regularidad estadística, entonces
hay que tratar de conocer -estimar-los parámetros
a partir de los datos de las muestras. Esto se
conoce como estadística paramétrica. Si interesa
conocer algún aspecto de la regularidad estadística
sin suponer un modelo específico, se conoce como
estadística no paramétrica. Hay dos enfoques dentro de este contexto, tratar de conocer los parámetros que determinan los modelos o que describen
algún aspecto de la regularidad, estimación de
parámetros. Otra posibilidad es el planteamiento de
hipótesis estadísticas que determinan los valores
de algunos parámetros. En ambos casos se recurre
al mismo desarrollo conceptual, que llamaré regularidad estadística de segundo nivel. Tanto·para la
estimación como para las pruebas de hipótesis, hay
que considerar una población teórica que se obtendría repitiendo el estudio un número muy grande
de veces y en cada ocasión se obtiene una
función de los datos numéricos -llamada una "estadística"- que con un número resume algo de
interés, la media de una muestra; la diferencia de
medias de muestras, el valor de t -una diferencia
de dos medias muestrales que toma en cuenta los
Para los promedios o sus diferencias opera el
teorema central del límite, se modela su regularidad
estadística con la normal, la media es la media
poblacionalo la diferencia de medias poblacionales
y la desviación estándar de esa normal para la
"estadística" es el error estándar de ella -error
estándar de una media o de una diferencia de
medias, de un coeficiente de regresión o de correlación, etc. El mismo teorema central del límite se
usa para encontrar la regularidad estadística de la
t, la F y la ji cuadrada -la usada para comparar
proporciones. Los valores F y ji cuadrada aparecen
en los modelos lineales y logísticos, muy útiles para
modelar cambios en las medias y proporciones
respectivamente, al cambiar los factores que definen varias poblaciones. Estos modelos y otros
más permiten obtener los llamados intervalos de
confianza para ciertos parámetros, que son intervalos, que con una confianza, probabilidad especificada usualmente de 95%, cubre el verdadero
valor del parámetro de interés. También se pueden
tener intervalos de confianza para predicciones de
valores individuales.
380
Empirismo, método científico y estadística
Lo que fundamenta las pruebas de hipótesis
estadísticas es la regularidad estadística, de segundo nivel, la que ocurre al considerar que el
estudios se repita un número infinito de veces, con
el mismo diseño, y en cada una se obtenga el valor
de la estadística. Bajo el supuesto de que la hipótesis es cierta, entonces la "estadística" t, F, ji o
alguna otra mide el grado de discrepancia de los
datos con la hipótesis. Si la discrepancia es grande, se rechaza la hipótesis lo que se juzga así, si
es improbable p< 0.05, con referencia a la regularidad estadística de segundo nivel de esa estadística. Frecuentemente la hipótesis estadística niega
la veracidad de una hipótesis científica, la que
establece relaciones, causales o no, entre conceptos. Es común un mal uso de estas pruebas de
hipótesis de nulidad, llamadas pruebas de significancia estadística. En el sentido de considerar
improbable que los datos empíricos apoyen la hipótesis de nulidad y en consecuencia rechazarla,
de ninguna manera lógica conduce a aceptar la
hipótesis científica. Esto es, sólo se eliminó por
improbable una explicación alternativa, el azar: la
hipótesis de nulidad. Las diferencias entre promedios o proporciones, o entre modelos, etc., se declaran significativas estadísticamente, para señalar
que son improbables de ocurrir nada más por azar.
Sin embargo, es importante considerar que puede
haber otras explicaciones alternativas como factores de confusión o errores de medición, etc. La
ausencia de evidencia nunca es evidencia de ausencia. Hay que juzgar toda la investigación con su
problema, marco teórico, hipótesis científica, diseño y análisis para poder finalmente tener una idea
del grado de apoyo o rechazo empírico que los
datos obtenidos por experimentación u observación proporcionan a una hipótesis o teoría. Es decir,
finalmente no hay objetividad absoluta, se tiene un
interjuego dialéctico de objetividad y subjetividad,
es subjetiva la elección de poblaciones y la definición de las variables y es objetiva la forma de la
regularidad estadística, sin embargo el concepto
de que ella existe no lo es. La conclusión final
es de carácter hermenéutico, se interpreta el conjunto, no únicamente el valor de p o la significancia.
Un modelo estadístico para la regularidad de
primer nivel, digamos la distribución exponencial
-normal, poisson, binomial, etc.-, por un lado es
analítico, ya que puede ser derivado matemáticamente a partir de ciertas premisas, y la negación de
esta conclusión es contradictoria. Sin embargo, su
uso sí depende de los datos empíricos, en la medida que lo consideramos adecuado, sólo si describe
aproximadamente las frecuencias relativas de esos
datos en nuestras grandes. Éste es un ejemplo de
lo inadecuado de visiones empíristas absolutas. A
fin de cuentas la distribución normal como tal no
existe en la naturaleza, pero tampoco es totalmente
una construcción sin referencias empíricas.
381
Revista de Geografía Agrícola
BIBLIOGRAFíA
Chalmers A, F. 1982. ¿Qué es esa cosa llamada
ciencia? 15a ed. en español, 1994. Siglo
XXI. México.
neamientos para su elaboración y análisis. 3a. edición 1994. Trillas. México.
___ 1976. Modelos estadísticos lineales. Interpretación y aplicaciones. 2a. edición
1981. Consejo Nacional de Ciencia y
Tecnología. México.
Gigerenzer G. et al. 1989. The empire of chanceo
How prObability changed science and
everyday life. Cambridege University
Press.
Mosterin, J. 1984. Grandes temas de la filosoffa
actual. Aula Abierta Salvat. Salvat. México.
Hacking, 1. 1995. El surgimiento de la probabilidad.
GEDISA
King A; O. Keohane R. y S. Yerba. 1994. Designing
social inquiry. Scientific inference in
qualitativa research. Princeton University Press.
Palmer, D. 1988, 1994. Looking at philosophy. The
unbearable heaviness of filosophy
made lighter. Mayfield Publishing CO.
Méndez, l.; D. Namihira; L. Moreno y' C. Sosa.
1984. El protocolo de investigación. Li-
Sánchez M., D. 1985. Aproximación a la filosofía.
Aula Abierta Salvat. Salvat. México.
382