CÓMO FAMILIARIZAR AL MUNDO EDUCATIVO SOBRE EL - Csi-f

ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
CÓMO FAMILIARIZAR AL MUNDO EDUCATIVO SOBRE EL
USO DE LAS TIC
AUTOR: ANTONIO JUAN NIETO BRAVO
Resumen: A continuación se hará una breve exposición de las diferentes opciones y posibilidades
existentes para familiarizar a los agentes educativos en el uso y aprovechamiento de las nuevas
tecnologías.
1. Introducción
La "sociedad de la información" en general y las nuevas tecnologías en particular inciden de manera
significativa en todos los niveles del mundo educativo. Las nuevas generaciones van asimilando de
manera natural esta nueva cultura que se va conformando y que para nosotros conlleva muchas
veces importantes esfuerzos de formación, de adaptación y de "desaprender" muchas cosas que
ahora "se hacen de otra forma" o que simplemente ya no sirven.
Con las Tecnologías de la Información y la Comunicación (TIC), se inicia un enorme cambio en el
mundo educativo, que pasará a depender directamente de lo que ya se conoce como “Industria TIC”,
formado por un enorme conjunto de empresas, tanto gigantes corporaciones internacionales como
multitud de pequeñas y medianas empresas (pymes).
Este cambio total en el sistema educativo origina que exista un enorme interés empresarial en
proveer de todos los servicios necesarios al mundo docente. Por ello, para un cambio de
dimensiones tan grandes, existen muchos factores a tener en cuenta para analizar la forma de
implantación de las TIC.
En este documento se va a proceder a analizar las formas de familiarizar a los distintos agentes
educativos en el uso de las TIC, y la forma de aprovechar en su propio beneficio y en el del mundo
educativo en general las posibilidades que se abren con la implantación de estas nuevas
tecnologías, así como el material y los recursos que puedan llegar a ser necesarios.
2. Familiarizar al profesorado
Hoy en día es bastante común que el personal docente que lleva ejerciendo la profesión durante
bastantes años, no esté familiarizado en absoluto con el uso y las posibilidades de las nuevas
tecnologías, así como el valor pedagógico que se puede obtener de ellas. Lo contrario suele ocurrir
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
en profesores que acaban de comenzar su carrera profesional, ya que el uso de las tecnologías
suele ser más habitual en personas de menor edad.
Por ello, se hace especialmente importante poder familiarizar a todo el conjunto de profesores con
las TIC, y unificar este conocimiento cuanto antes. Algunos de los aspectos que se pueden tratar
para ayudar a los docentes a entrar en contacto con las nuevas tecnologías, y especialmente a
usarlas en beneficio de la capacidad de enseñanza de los mismos, son los siguientes:
•
Poseer un ordenador personal tanto en el centro de trabajo como en casa, con el objetivo de
acostumbrarse a manejar esta importantísima herramienta independientemente del contexto
en el que se quiera usar. Es muy importante tener soltura en el manejo de computadoras, ya
que son la base técnica sobre la que se sustentan todas las opciones que ofrecen las nuevas
tecnologías.
•
Formación personalizada. Se deben crear y mantener continuos cursos educativos para
ayudar al profesorado a iniciar su andadura en el uso de las TIC, y posteriormente para
explicar opciones educativas más complejas. Para ello se debe disponer de una oferta de
cursos muy amplia, de forma que cada docente pueda escoger el que mejor se adapte a sus
necesidades personales.
•
Apoyo. Es muy importante por parte del colectivo docente el poder sentir y contar con el
apoyo de las Administraciones, así como de la propia dirección del centro. Esta es una
característica necesaria sobre cualquier temática en general, pero especialmente importante
para la adaptación de las TIC a nuestro entramado educativo.
•
Recursos materiales. De igual forma, se necesita de los suficientes recursos materiales para
poder llevar a cabo la actividad pedagógica de forma lógica, coherente y eficaz. Entre los
distintos recursos que deberían ser necesarios para un profesor familiarizado en las nuevas
tecnologías podemos destacar:
o Pizarra digital, compuesta de ordenador del profesor junto con un video proyector, para
apoyarse a la hora de impartir las clases.
o Salas de estudio, tanto exclusivas de informática como multiusos para poder realizar
las actividades que el docente considere pertinentes.
o Buena conexión, que permita a los profesores poder desarrollar su trabajo con
celeridad, y explotar todas las posibilidades que se le ofrecen para comunicarse con el
resto de docentes, los alumnos o sus familiares sin ningún problema técnico que
necesite ser resuelto.
•
Recursos logísticos. Al igual que es necesario poder disponer de los suficientes recursos
materiales, resulta necesario disponer de los distintos recursos logísticos o “de software” que
permitan al docente mejorar la experiencia educativa de sus alumnos, y poder ofrecer un
aprendizaje de mayor calidad. Entre los distintos recursos de este tipo que podemos
identificar, se encuentran:
o Comunidades virtuales, tanto exclusivas para docentes como comunidades específicas
por materias o directamente entre alumnos y profesor, con las que el docente puede
tanto mejorar su formación y conocimientos como la calidad de la enseñanza que
imparte a sus alumnos.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
o Portales educativos, que ofrezcan a cada docente los suficientes recursos didácticos
digitales.
3. Familiarizar al alumnado
Es un error pensar que el alumnado está familiarizado con las TIC, ya que sería más correcto decir
que están familiarizados con el ordenador en general. Los alumnos, en su gran mayoría, no conocen
sistemas de cursos virtuales o las mejores formas de buscar información veraz, sino más bien
chatear con programas de mensajería instantánea y usar redes sociales.
Por ello, este grupo también debe ser familiarizado con las TIC, y los siguientes puntos son
especialmente recomendables para ello:
•
Recursos materiales. Los alumnos también necesitan disponer de una serie de recursos
materiales, al igual que los profesores, para poder desarrollarse con las nuevas tecnologías,
esencialmente:
o Ordenador personal, como mínimo en casa y a ser posible en el aula, ya sea propio o
compartido.
o Salas de estudio, tanto específicas como de múltiples usos, en las que poder
desarrollar las actividades pedagógicas que sean necesarias.
•
Recursos logísticos. De igual manera, los estudiantes también necesitan disponer de
suficientes recursos logísticos, esencialmente en tres sentidos:
o Plataforma virtual, que ofrezca un buen acceso específico al alumno, así como un
entorno colaborativo en el que llevar a cabo su tarea.
o Canales de comunicación, tanto entre alumnos como entre los alumnos y sus
respectivos profesores.
o Recursos digitales, prestados por el profesorado para que el alumnado pueda
estudiarlos en cualquier momento.
•
Educación en TIC. Como se ha comentado en la introducción de este mismo punto, también
resulta necesario alfabetizar al alumnado respecto del uso de las tecnologías con fines
educativos. Esta tarea será desarrollada a lo largo de la vida académica del estudiante por
sus respectivos profesores.
•
TIC en casa. Por último, resulta necesario saber promover el uso de las TIC en casa, al
margen del uso lúdico que los alumnos pueden hacer de las tecnologías.
4. Conclusiones
Se han comentado las distintas vías para familiarizar a los agentes educativos (esto es, al alumnado
y personal docente) con la Tecnologías de la información y la Comunicación.
Si bien una buena parte del profesorado no tiene una cultura tecnológica avanzada, el alumnado sí
suele poseerla, por haber crecido en medo de la Sociedad de la Información. En cualquier caso,
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
ambos sectores necesitan por igual estar debidamente familiarizados con el nuevo entorno educativo
que se está construyendo.
Para ello, en menor o mayor medida, ambos necesitan una serie de elementos que podemos
resumir de la siguiente manera:
•
Recursos materiales, sobre los cuales trabajar.
•
Recursos logísticos, a partir de los cuales se desarrollan los distintos contenidos educativos,
permitiendo además un canal de comunicación extra para interrelacionar a las distintas
personas que intervienen en el proceso educativo
•
Disponibilidad personal, de recursos materiales propios para poder continuar con el
aprendizaje en cualquier momento que pueda resultar necesario.
IMPLANTACIÓN DE LAS TIC EN LA ENSEÑANZA DE
MATEMÁTICAS: GEOGEBRA
AUTOR: ANTONIO JUAN NIETO BRAVO
Resumen: A continuación se hará una breve exposición de las características de una aplicación
matemática online, geogebra, introduciendo también al lector sobre la relación existente entre las
nuevas tecnologías y la educación en las matemáticas.
1. El software y la enseñanza
Actualmente se tiende en el mundo educativo cada vez más al uso de sistemas operativos libres,
con la finalidad de ahorrar las costosas licencias de Microsoft.
Esto se debe principalmente a la inserción de ordenadores en las aulas, con el objetivo principal de
integrar las TIC en el mundo educativo. Al aumentar drásticamente el número de computadoras y,
por tanto, el número de licencias necesarias, se está optando cada vez más por un sistema
operativo libre existente o, en su defecto, la construcción personalizada de un sistema operativo
propio, focalizando en su construcción las necesidades propias.
Tres ejemplos de este tipo de actuación podemos encontrarlos en las comunidades autónomas de
Cataluña, Extremadura o Andalucía, con sus propias distribuciones creadas con las necesidades
específicas: Linkat, Linex y GuadaLinex:
Linkat es la distribución GNU/Linux del Departamento de Enseñanza de la Generalidad de
Cataluña. Está basada en la distribución SUSE Linux Enterprise Desktop (SLED) y el
funcionamiento de los programas se basa en paquetes rpm. Actualmente está en fase 2.1 y
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
utiliza por defecto el entorno de escritorio Gnome, aunque también están disponibles los
entornos KDE y XFCE.
LinEx es una distribución Linux libre basada en Debian GNU/Linux y GNOME, contando con
OpenOffice.org como suite ofimática, entre otras aplicaciones. Está impulsado por la
Consejería de Economía, Comercio e Innovación de la Comunidad Autónoma de Extremadura
(España), siendo pionero y secundado por otros organismos públicos y privados del resto de
España. Durante un periodo considerable de tiempo, la comunidad extremeña ofreció también
apoyo a la de Andalucía (la cual se inspiró en Linex para desarrollar Guadalinex) en la
implantación de soluciones abiertas en colegios, administración, etc.
Guadalinex es una distribución Linux promovida por la Junta de Andalucía para fomentar el
uso del software libre en su comunidad autónoma. Está inspirada en GnuLinEx, un proyecto
similar de la Junta de Extremadura. Inicialmente estuvo basada en Debian GNU/Linux debido
al acuerdo inicial entre la Junta de Andalucía y la de Extremadura, y desde la versión 3.0 se
basa en Ubuntu.
Con esta revolución de software, los programadores en software libre se han volcado para ofrecer
soluciones a las Comunidades en todos los ámbitos, incluido y especialmente focalizado en el
educativo, creando multitud de herramientas educativas.
En este documento vamos a estudiar una herramienta que se puede encontrar para la enseñanza de
las matemáticas, aunque antes vamos a analizar los distintos tipos de herramientas que podemos
encontrar en Internet para aplicarlas a las clases, en el apartado siguiente.
2. Tipos de Software
Antes de comentar algunos de los mejores programas sobre matemáticas, es importante recordar
los tipos de software que nos podemos encontrar, de mayor a menor grado de libertad sobre la
aplicación y necesidades económicas para adquirirla:
Un software propietario, también conocido como software privativo o de código cerrado, se
refiere a cualquier programa en el que los usuarios tienen limitadas las posibilidades de
usarlo, modificarlo o redistribuirlo (con o sin modificaciones), o cuyo código fuente no está
disponible o el acceso a éste se encuentra restringido.
Una aplicación shareware permite una evaluación inicial del producto, con una serie de
restricciones sobre el software original, que generalmente abarcan restricciones temporales
(por ejemplo, la posibilidad de usar el programa durante 30 días) o con limitaciones en la
funcionalidad de la aplicación. Para obtener el producto final, se debería comprar una licencia,
con lo que se desbloquearían las limitaciones de la aplicación.
Una aplicación freeware se puede obtener gratuitamente y por un tiempo ilimitado. A veces
se incluye el código fuente aunque no es lo habitual. Ofrece una serie de restricciones en su
distribución, generalmente la prohibición de modificar por cuenta propia la aplicación, entre
otras.
Un software es libre o de código abierto (open source, GPL) da una serie de libertades una
vez adquirido (generalmente sin necesidad de pagar por él): la libertad de usar el programa,
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las
necesidades; de distribuir copias, con lo cual se puede ayudar a otros, y de mejorar el
programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie.
Una vez vistos los tipos de aplicaciones que nos podemos encontrar en la red de redes, vamos a
analizar algunas aplicaciones matemáticas disponibles online (en una página web), especialmente
diseñadas a la enseñanza de las matemáticas.
3. Geogebra
GeoGebra es un software de matemática para educación en todos sus niveles, que reúne
dinámicamente, aritmética, geometría, álgebra y cálculo. Ofrece múltiples representaciones de los
objetos desde cada una de sus posibles perspectivas: vistas gráficas, algebraicas y hojas de datos
dinámicamente vinculadas.
En tanto GeoGebra es un sistema de geometría dinámica (como Cabri o SketchPad Geométrico)
centrado en el tratamiento dinámico de objetos geométricos, sustenta la idea de conectar
representaciones geométricas, algebraicas y numéricas interactivamente. Permite realizar
construcciones tanto con puntos, vectores, segmentos, rectas, secciones cónicas como con
funciones que, a posteriori, pueden modificarse dinámicamente.
Por otra parte, se pueden ingresar ecuaciones y coordenadas directamente. Así, GeoGebra tiene la
potencia de manejarse con variables vinculadas a números, vectores y puntos; permite hallar
derivadas e integrales de funciones y ofrece un repertorio de comandos propios del análisis
matemático, para identificar puntos singulares de una función, como Raíces o Extremos. Así se
pueden graficar funciones con facilidad, operar con deslizadores para investigar su comportamiento
paramétrico, encontrar derivaciones así como hallar derivadas y usar comandos de la potencia de
Raíz o Secuencia.
GeoGebra se distribuye con una licencia GPL y tiene una amplia gama de premios, obtenidos desde
el año 2002 hasta la actualidad.
Se puede tanto descargar como usar online, a partir de la siguiente dirección web:
http://www.geogebra.org/cms/.
Está disponible en múltiples idiomas y ofrece varias capturas de pantalla para analizar las
posibilidades de esta aplicación, cada vez de un uso más extendido.
Se sigue trabajando continuamente para mejorar GeoGebra, lo que hace que la aplicación tenga una
continuidad garantizada, especialmente útil para asegurarse un uso durante varios años académicos
de la misma.
4. Conclusiones
Se ha comentado el impacto de las nuevas tecnologías en el mundo educativo como introducción al
presente artículo.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Posteriormente se han analizado los distintos tipos de software que se puede escoger para cualquier
actividad tecnológica que se proponga en las aulas o como ejercicios didácticos en el alumnado,
incidiendo especialmente en el mundo de las licencias, los costos y las posibilidades que se dan
entre la elección de un tipo de programas y otros.
Finalmente, se ha expuesto la existencia de una página de una utilidad notable, llamada GeoGebra,
con multitud de posibles aplicaciones prácticas para las clases en la Educación Secundaria
Obligatoria para la especialidad de Matemáticas.
INTRODUCCIÓN AL PROCESAMIENTO DIGITAL DE SEÑALES
AUTOR: JORDI PASCUAL GRANADO
Resumen:
En el presente artículo se abordan los fundamentos básicos de la teoría del procesamiento digital de
señales, partiendo de una breve reseña histórica de la evolución de estos sistemas desde su
aparición hasta los sistemas actuales, cuyos fundamentos matemáticos son lo mismos pero con una
potencia de cálculo mucho mayor en los actuales DSP (Procesadores Digitales de Señales).
1. Introducción:
El procesamiento digital de señales es un área de la ciencia y la ingeniería que se ha desarrollado
muy rápidamente durante los últimos 30 años y cuya aplicación se ha extendido ampliamente en
campos muy diversos como la medicina, el ocio o las comunicaciones. Esto es consecuencia de los
importantes avances logrados en la tecnología de computadores y la fabricación de circuitos
integrados, que han propiciado la aparición de procesadores de propósito específico como los
microcontroladores y los DSP (Digital Signal Processor). Gracias a este espectacular desarrollo de
los procesadores digitales, hoy en día es posible aplicar toda la teoría de procesamiento digital de
señales que se viene desarrollando desde los años 50 pero cuya aplicación fue inviable hasta
principios de los 70, al menos con un coste competitivo respecto a los sistemas analógicos.
2. Evolución histórica del Procesamiento Digital de Señales:
La primera vez que se pensó en usar una computadora como parte de un sistema de procesamiento
de señales en tiempo real fue en 1950, cuando Brown y Campbell presentaron un esquema que
usaba una computadora digital tanto en el lazo directo como el lazo de realimentación de un sistema
de control. En esta primera propuesta se asumía el uso de elementos de computación analógicos
además de la computadora digital, ya que la velocidad de procesamiento de los ordenadores era
muy limitada, y debido a esto pasaron varios años hasta que se aplicara realmente un sistema en
que el procesamiento de señales fuera completamente digital.
Las primeras computadoras digitales desarrolladas específicamente para control en tiempo real
fueron destinadas a operaciones del ejército del aire. En 1954 fue usada por primera vez con éxito
una computadora digital para el sistema de control de vuelo automático de un avión.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Hasta 1959 no se aplicó el primer sistema de control por computador en la industria, aunque se
habían usado antes como sistema de monitorización, pero no controlaban realmente los procesos.
Este fue el primero que sí lo hacía y fue instalado en una refinería de la Texaco en Texas, haciendo
uso de una memoria de tambor.
A partir de este momento se siguieron implantando sistemas de control por computador en varias
instalaciones industriales, pero todos ellos tenían una característica en común: el tipo de control
realizado era control supervisor, es decir, el computador sólo daba consignas de funcionamiento a
controladores analógicos que controlaban los actuadores del proceso. Por lo tanto el ordenador no
controlaba directamente los procesos sino indirectamente a través de las consignas enviadas a los
controladores analógicos.
El primer sistema de procesamiento en tiempo real de control digital directo (DDC) fue implantado en
Noviembre de 1962 en una planta industrial de amoniaco-sódico en el Reino Unido. Este sistema
requería de una gran velocidad de procesamiento ya que controlaba directamente los actuadores a
diferencia de los sistemas implantados hasta esa fecha. No obstante, a pesar de que se llevara a
cabo este sistema con éxito, la baja velocidad de procesamiento y escasa capacidad de
almacenamiento de las computadoras existentes hasta principios de los años setenta, mas el
elevado coste de las mismas, impidió que el uso de los sistemas de control y procesamiento por
computador se extendiera de forma masiva a nivel industrial.
A partir de la década de los setenta, con el desarrollo de la integración de circuitos, la aparición de
los microprocesadores y la importante reducción de costes, comenzó a hacerse viable la
implantación de sistemas de procesamiento y control digital en aplicaciones industriales y de
comunicaciones. Esto propició la especialización de los microprocesadores para propósitos
específicos, apareciendo los microcontroladores y procesadores digitales de señales (DSP), que han
seguido evolucionando de manera exponencial hasta la actualidad. Esto no sólo ha permitido el uso
de sistemas de procesamiento digital de señales en la industria, sino que se ha extendido durante
los últimos años a otros campos como el ocio, las comunicaciones, la medicina, etc.
En la actualidad los sistemas de procesamiento digital de señales han sustituido por completo a los
sistemas analógicos, gracias a la implantación de los DSP (Procesadores Digitales de Señales), que
con un coste muy reducido pueden procesar señales de audio, video, comunicaciones, etc. con una
calidad muy superior a la de los sistemas analógicos debido a que permiten realizar cálculos muy
complejos en tiempo real, pudiendo aplicar técnicas como: filtros adaptativos, cancelación de eco,
redes neuronales, etc. Que serían imposibles de desarrollar mediante sistemas analógicos.
Hoy en día encontramos Procesadores Digitales de Señales en: Televisión Digital Terrestre, Música
(CD, MP3, radio digital), teléfonos móviles, tarjetas de sonido y de video de ordenadores, todo tipo
de sistemas de regulación en automoción (velocidad, trayectoria, distancia de seguridad), sistemas
de control digital en entornos industriales (control neuronal, control borroso, control vectorial de
motores) y un largo etc.
3. Definición:
Según el Oxford Dictionary of Computing: “un sistema de tiempo real es cualquier sistema en el que
el tiempo en el que se produce su respuesta es significativo. Esto es debido a que la entrada
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
corresponde a algún cambio en el mundo físico, y la salida está relacionada con ese cambio. El
intervalo desde el tiempo de entrada al tiempo de salida debe ser suficientemente pequeño para una
puntualidad aceptable”.
Si el sistema de procesamiento es digital, podemos tomar esta definición de sistema de tiempo real
como válida, pero para ello el sistema deberá cumplir la condición de que el periodo de muestreo
sea inferior al intervalo de tiempo considerado como puntualidad aceptable. Realmente esta
condición no es un añadido sino que se desprende de la propia definición.
4. Elementos que componen un sistema de procesamiento digital de señales:
Un sistema de procesamiento digital de señales está compuesto básicamente por los distintos
bloques que se observan en la siguiente figura:
El primer bloque que nos encontramos es un filtro de entrada cuya función es acondicionar la señal
para el siguiente bloque que es el conversor Analógico/Digital. Esto es necesario debido a que las
señales analógicas generalmente no están limitadas en banda, es decir, su rango de frecuencias no
está limitado sino que abarca todo el espectro, y según el teorema del muestreo, es necesario que
las señales continuas que se vayan a muestrear con una frecuencia fs estén limitadas en banda a
una frecuencia máxima de fs/2 para que no se produzca el efecto llamado aliasing (solapamiento)
que puede llegar a distorsionar completamente la señal. Por lo tanto, es necesario introducir un filtro
paso bajo que tenga frecuencia de corte en fs/2, para eliminar las componentes de frecuencias por
encima de ésta. El efecto del filtro sobre el espectro de frecuencias de la señal se ve en la siguiente
figura:
El segundo bloque es el conversor A/D, que convierte la señal analógica de entrada en digital y está
compuesto por dos bloques: un muestreador, que toma muestras de la señal en valores de tiempo
discretos y múltiplos del periodo de muestreo Ts, y una etapa de digitalización, que obtiene un valor
numérico a partir del valor analógico discretizado con un número de bits n. Son de vital importancia
la elección de la frecuencia de muestreo fs y el tamaño de palabra del conversor A/D, que influirá en
la precisión de las muestras tomadas. Así por ejemplo, con un tamaño de palabra de 8 bits tenemos
28 = 256 niveles para cuantificar el valor analógico, mientras que con un tamaño de palabra de 16
bits tenemos una precisión de 216 = 65536 niveles. El efecto de la frecuencia de muestreo es muy
importante, ya que el filtro de entrada introduce una frecuencia de corte en fs/2 y por lo tanto
mientras mayor sea fs mejor aproximada estará la señal de entrada. El efecto del muestreo en el
espectro de la señal es la repetición del mismo periódicamente a una distancia fs, como se observa
en la figura.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
El siguiente bloque es el buffer de entrada o imagen de los datos de entrada, en el que se guarda
memoria de las muestras anteriores de la señal de entrada para poder realizar cálculos con series
de datos en lugar de usar valores de muestras aisladas.
Tras el bloque de imagen de entrada tenemos el bloque de procesamiento digital de la señal, en el
que se realizan todos los cálculos numéricos con las muestras de la señal, y será realizado por un
procesador digital, ya sea un ordenador de propósito general, un microcontrolador o un DSP.
La salida de datos es simétrica con la entrada, es decir, nos encontramos con un buffer de datos de
salida en el que se irán guardando las muestras resultantes del procesamiento realizado por el
procesador. Después estas muestras serán reproducidas con una frecuencia de muestreo fs por
medio del conversor Digital a Analógico (D/A) y filtradas por el filtro de salida para eliminar las
bandas de frecuencia centradas en múltiplos de fs. Esto es lo que se llama muestreo y
reconstrucción, y lo que hace es convertir una serie de datos discreta en una señal continua.
5. Fundamentos de teoría de señales y sistemas discretos (Señales digitales)
Definimos señal como la variación de una magnitud física con el tiempo, espacio o alguna otra
variable independiente. Por ejemplo s(t) = 2*Sen(wt) es una señal que depende de la variable
independiente t.
Podemos distinguir entre cuatro tipos de señales en función del carácter de la variable de tiempo y
de los valores que ésta toma:
1. Señales de tiempo continuo: son señales que están definidas para todo valor de tiempo t y
además el tiempo se evalúa en un intervalo continuo que puede variar desde -∞ a ∞. Es decir, son
funciones de una variable continua.
2. Señales de tiempo discreto: son señales que sólo están definidas en valores discretos de tiempo.
Estos valores no tienen porque estar equidistantes, pero en la práctica se suelen tomar con un
periodo constante llamado periodo de muestreo.
3. Señales de valores continuos: señales de tiempo continuo o de tiempo discreto que toma valores
continuos de la magnitud que representa, es decir, en los instantes de tiempo en que se evalúa
puede tomar cualquier valor dentro de un intervalo continuo.
4. Señales de valores discretos: señales de tiempo continuo o de tiempo discreto que toman valores
discretos de la magnitud que representan.
A menudo se suele confundir las señales digitales con las señales de tiempo discreto, pero hay que
hacer una distinción entre ellas: las señales de tiempo discreto provienen de señales continuas
muestreadas, mientras que las señales digitales son señales de tiempo discreto que además han
sido cuantificadas, es decir, que son además de valores discretos.
En las siguientes figuras se observa claramente la diferencia entre una señal discreta y una señal
digital (muestreada y cuantificada):
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
En esta figura se observa una señal continua que se va a muestrear, obteniendo la señal que se
presenta en la siguiente figura:
La señal discreta (muestreada) tiene valores continuos en instantes de tiempo discretos, pero para
digitalizar la señal es necesario cuantificarla, tal como se muestra en la siguiente figura.
Por tanto, el proceso de conversión de una señal analógica a una señal digital se divide en dos
bloques como se muestra en la figura siguiente:
El objeto de este artículo son las señales digitales, sin embargo conviene tener presente que éstas
provienen del muestreo y cuantificación de señales continuas, y por lo tanto representarán con
mayor o menor precisión a éstas en función de los siguientes parámetros:
1. Frecuencia de muestreo: frecuencia con la que se toman valores de la señal continua. El resultado
del muestreo de la señal es un tren de pulsos de distinta amplitud.
2. Rango del conversor A/D: intervalo entre los valores máximo y mínimo que el conversor A/D
puede convertir de valor analógico a digital.
3. Nivel de cuantificación Q: se define como el rango entre dos puntos de codificación adyacentes y
depende del número de bits que usemos para la digitalización. Por ejemplo, para un conversor cuyo
rango de variación de voltaje sea 0-10 V y use 8 bits para la conversión tendrá una resolución de
10/28 = 0.039V.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Por tanto, mientras mayor sea la frecuencia de muestreo y mayor el número niveles de
cuantificación, más fielmente representará la señal digital a la señal continua.
6. Sistemas discretos
Ya hemos definido lo que es una señal digital, pero el interés de trabajar con ellas es el de poder
procesar señales numéricamente, y esto es lo que hacen los sistemas de control discretos. Un
sistema de control discreto recibe una secuencia de valores numéricos, los procesa mediante un
algoritmo matemático y produce una salida digital que será otra secuencia de valores numéricos. De
esta manera, si los sistemas continuos se representan matemáticamente por una ecuación
diferencial, los sistemas discretos se representan matemáticamente por una ecuación en diferencias,
que expresada de un modo genérico es:
y(k) = H[ y(k-1), ..., y(k-n), x(k), ..., x(k-m) ]
Con un conjunto de condiciones iniciales y(0), ..., y(n-1) que definen unívocamente la solución y(k).
Una ecuación en diferencias dada de esta forma se dice que representa a un sistema recursivo, ya
que los valores futuros de la salida dependen de los valores pasados de la misma, en cambio, se
dice que un sistema es no recursivo si los valores futuros de la salida sólo dependen de los valores
pasados de la entrada pero no de la salida, es decir, la expresión matemática que los representa es
de la siguiente forma:
y(k) = H[ x(k), x(k-1), ..., x(k-n) ]
Cuando el sistema es lineal, es decir, cumple el principio de superposición, la ecuación en
diferencias que lo representa queda de la siguiente manera:
(recursivo)
a0.y(k) + ... + an-1.y(k-n+1) + an.y(k-n) = b0.x(k) + ... + bm.x(k-m)
(no recursivo)
y(k) = b0u(k) + b1u(k-1) + ... + bnu(k-n)
donde los valores de los coeficientes ai y bi pueden ser variables con el tiempo. Si son constantes
para todo k, se dice que el sistema es Lineal e Invariante en el Tiempo (LTI).
Nos vamos a centrar en el estudio de sistemas discretos lineales, ya que existen numerosas
técnicas numéricas para el análisis y diseño de sistemas lineales, y además gran cantidad de
sistemas prácticos son lineales o se pueden linealizar.
7. Respuesta de sistemas Lineales Invariantes en el Tiempo (LTI)
Hemos visto que los sistemas discretos lineales se caracterizan por una ecuación en diferencias,
pero otra forma de caracterizarlos es mediante la respuesta ante una entrada impulso unitario δ(k),
ya que una cualquier señal discreta se puede descomponer en una suma de impulsos unitarios
multiplicados por constantes, y esto nos permite calcular la respuesta de un sistema LTI a cualquier
señal aplicando el principio de superposición si conocemos la respuesta ante un impulso δ(k). Esto
se puede observar en la figura siguiente:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Se puede observar que la señal discreta representada en la figura está compuesta por una serie de
impulsos unitarios δ(n-k) multiplicados por distintas amplitudes, por lo que se puede expresar como:
n
x(n) = ∑ x(k ).δ (n − k )
k =0
y por lo tanto se puede calcular la salida de un sistema LTI frente a esta señal si se conoce la
repuesta a un impulso unitario δ(n) aplicando el principio de superposición. De esta manera, si la
respuesta a impulso de un sistema lineal es una secuencia finita de valores h0, h1, ..., hm, se tiene
que para una señal x(n) la salida será:
m
y (n) = ∑ hk .x(n − k )
para n = 1, 2, 3, ...
k =0
Esto es lo que se llama suma de convolución, debido a que es la convolución de la respuesta a
impulso h(n) sobre la señal de entrada x(n). Observamos que por este método calculamos la
respuesta del sistema a una señal arbitraria realizando m multiplicaciones y m sumas para cada
muestra, de manera que si tomamos m muestras realizaremos m2 multiplicaciones y m2 sumas.
Hemos visto que un sistema lineal invariante en el tiempo queda caracterizado por su respuesta
a impulso h(n), pero es conveniente hacer una subdivisión de éstos en dos tipos:
1. Sistemas FIR (Finite Impulse Response): son aquellos cuya respuesta ante un impulso
unitario tiene una duración finita. La salida se puede calcular usando la suma de convolución
ya que el número de operaciones es finito:
m
y (n) = ∑ hk .x(n − k )
k =0
2. Sistemas IIR (Infinite Impulse Response): son aquellos cuya respuesta ante un impulso
unitario tiene una duración infinita. Para este tipo de sistemas la respuesta ante una señal
arbitraria es una suma infinita,
∞
y (n) = ∑ hk .x(n − k )
k =0
y por lo tanto la respuesta del sistema se debe calcular por otro método, como por ejemplo
resolviendo la ecuación en diferencias que lo representa, que generalmente viene dada de forma
recursiva para sistemas IIR:
a0 y (k ) + ... + an −1 y (k − n + 1) + an y (k − n) = b0 x(k ) + ... + bm x(k − m)
En muchos casos prácticos, la respuesta de un sistema IIR estable (si es estable cumple que la
respuesta ante un impulso unitario tiende a cero cuando t tiende a infinito) se puede aproximar por
una respuesta FIR. Esto es interesante para el diseño de filtros digitales adaptativos, ya que su
diseño es bastante más sencillo para filtros FIR que para filtros IIR. Por otro lado, los sistemas FIR
son inherentemente estables, ya que producen la salida a partir de la suma de un número finito de
términos, mientras que los sistemas IIR producen la salida a partir de la suma de una serie infinita de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
términos, y por lo tanto pueden divergir volviéndose inestables. Esta es la razón por la que
normalmente se prefiere usar filtros digitales de tipo FIR en lugar de usar filtros IIR, y más aún
cuando se trata de filtros adaptativos que cambiarán a lo largo del tiempo y no se puede asegurar
que no se vuelvan inestables en algún momento.
Bibliografía:
[1]
[2]
[3]
[4]
[5]
[6]
[7]
John G. Proakis and Dimitris G. Manolakis. Introduction to Digital Signal Processing.
Macmillan Publishing Company, 1989.
Paul A. Lynn and Wolfgang Fuerst. Introductory Digital Signal Processing with Computer
Aplications. Ed. Wiley & Sons. 1989.
Oppenheim, A. V. and Willsky, A. S. Signals and Systems. Prentice Hall, 1983.
Ken C. Pohlmann. Principles of Digital Audio. Howard W. Sans & Company, 1995.
Digital Signal Processing Committee. Selected Papers in Digital Signal Processing. IEEE
Press. 1976.
Jorge Luis Martínez Rodríguez. Control de Procesos Industriales. Universidad de Málaga,
Octubre de 1997.
Javier Fernández de Cañete, M. J. López Baldán, I. Garcia Moral. Control Automático de
Sistemas en tiempo discreto. Universidad de Málaga, Diciembre de 1997.
“LA IMPORTANCIA DE LA MOTIVACIÓN Y LA RELAJACIÓN EN EL
AULA”
AUTOR: MANUEL ALEJANDRO MARTÍN MORENO
Resumen
Se presenta en el siguiente artículo una batería de actividades y juegos adecuadamente
seleccionados como técnicas de motivación y/o relajación que se pueden incluir para todas las
áreas del currículo.
1. INTRODUCCIÓN
Las actividades de motivación en clase favorecen la percepción de autonomía por par te del
alumnado y facilita la percepción de la tarea elegida como más interesante. Además, si estas
actividades se plantean de forma grupal, es decir, en la que se trabaje en cooperación con los
compañeros/as, harán que desarrollen el patrón de motivación por apr endizaje frente al de
lucimiento, resultando terapéutico para aquellos alumnos/as que han desar rollado miedo al fracaso.
Planteo una serie de objetivos para conseguir con estas actividades:
_ Captar la atención y la cur iosidad por el contenido.
_ Mostrar la relevancia de los contenidos más significativos de la actividad de aprendizaje.
_ Conseguir mantener el mayor nivel de interés por el contenido de la actividad y evitar el abandono
del esfuerzo preciso.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Por orto lado las actividades de relajación, como síntesis en las sesiones sobretodo de las áreas de
educación física y de música, ayudan a la relajación muscular que sirve como medio para obtener
una relajación psicológica.
La vuelta a la calma (actividad de síntesis) se presenta como el momento de la sesión más
apropiado para desarrollar las prácticas de relajación, y su reiteración ayudará a fomentar hábitos
que puedan transferirse a su vida ordinaria.
La práctica de la r elajación aporta a nuestro organismo:
- Disminución de la ansiedad.
- Aumento de la capacidad de enfrentar situaciones estresantes.
-Estabilización de las funciones cardiaca y respiratoria.
- Aumento de la velocidad de reflejos.
- Aumento de la capacidad de concentración y de la memoria.
- Aumento de la eficiencia en la capacidad de aprendizaje.
- Incremento de la habilidad para relajarse cada vez que lo necesite esté donde esté.
- Sintonización armónica de la mente y el cuerpo.
- Aumento de la capacidad de reflexión.
- Aumento de la tendencia natural de conocerse a sí mis mo.
- Aumento de la disposición del organismo a curarse a sí mismo.
- Incremento de la capacidad creativa.
- Mejor disposición para tratar a gente "tóxica" (Personas que nos invitan a sentirnos mal).
- Aumento considerable de la capacidad de visualización interna dirigida.
- Aumento de la facilidad de pensar en positivo.
- Tendencia creciente al mejoramiento de la autoimagen positiva.
- Aumento de la confianza en sí mismo.
- Disminución de la tensión arterial.
- Mejora en la circulación sanguínea.
- Normalización de la respiración.
- Sensación de eliminación de tensiones.
- Aumento de la recuperación física y mental.
- Aumento de la oxigenación cerebral.
- Ensanchamiento del campo de conciencia.
- Mejora en la calidad del sueño.
- Mayor facilidad para recordar los sueños acontecidos mientras se duerme.
2. ACTIVIDADES DE MOTIVACIÓN.
Muévete animal. Desplazarse por el espacio imitando animales. “Hoy me he encont rado...”
Los niños están sentados en círculo mirando hacia el interior . Uno de ellos dice: "Hoy me he
encontrado un león" y se mueve como si él fuera un león. El jugador de su lado repite el animal que
ha encontrado su compañer o y añade uno nuevo. "Hoy me he encontrado un león y una serpiente"
(Realiza los movimientos correspondientes). Así sucesivamente.
Cada niño tiene que repetir las palabras desde el principio en el orden correcto y añadir una más.
Una variante: Realizar sólo los movimientos corporales sin nombrar el animal.
El objetivo que se persigue, es memorizar palabras e interpretarlas corporalmente.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
“Ciempiés”.
Los niños se colocan en fila, uno detrás de otro, con la mano derecha encima del hombro del jugador
que tienen delante.
El primer jugador de la fila representa la cabeza del ciempiés y debe inventar un movimiento
corporal. Los demás niños deben repetirlo, siguiendo el tempo del pandero, hasta que éste quede en
silencio. (El maestro/a dirige la marcha con un pandero).
Cuando acaba la música, el primer jugador se dirige a la cola del ciempiés para que el nuevo jugador
de cabeza invente otro movimiento, que los demás tendrán que copiar.
Juegos de rol.
Los personajes de los juegos de rol pueden cambiar en función de los temas que hayamos tratado
últimamente en el aula:
Liebres y conejos.
Lobos y cerditos.
Soles y lunas.
Tiburones y peces.
Previamente nos ponemos de acuerdo sobre los espacios (donde está la casa de la liebre, situamos
la madriguera donde los conejos están protegidos,...).
La mecánica del juego es siempre bastante parecida aunque con variaciones. Un ejemplo de cómo
introducir el juego: ''Los grandes osos (dos o más niños que llevan una capa o algún otro distintivo)
están durmiendo. Poco a poco se van despertando y se dan cuenta que tienen mucha hambre. Van
a buscar peces para comer ( el resto de los niños/as) ‘‘. En definitiva se trata del juego de siempre de
perseguir, atrapar , hacer prisioneros y llevárselos a casa, ir a salvar,...
A menudo los niños/as incorporan en el juego movimientos y sonidos de los animales que
representan.
El carnaval de los animales.
Escuchando la obra de Camille Saint-Saëns, “El carnaval de los animales”, los niños tendrán que
moverse al ritmo y en aquellas partes que así lo r equieran, imitarán con gestos los instrumentos
musicales que interpretan dicha parte de la obra, o imitarán al animal que corresponda en cada
caso.
Paseo en autobús.
Esta actividad en un principio va dirigida al alumnado del primer ciclo de educación primaria, debido
a su sencillez.
Con esta actividad se pretende:
_ Acercar al niño/a a los medios de transporte.
_ Conocer las nociones básicas de educación vial.
_ Respetar el silencio como elemento integrante en la música.
_ Representar con movimientos, diferentes ritmos.
_ Diferenciar los distintos aires y movimientos en la música.
Se colocan las sillas en filas, los niños/as serán los pasajer os que vayan subidos en el bus. Un
niño/a hará de conductor que será el primero de dicha fila, este tocará el silbato para avisar que el
bus se pone en marcha. Arranca. Las sacudidas se notan en los cuerpos de los viajer os/as, que se
tambalean hacia delante, hacia atrás, según acelere o disminuya la velocidad. (Esta marcha la ira
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
marcando con un pandero, dando golpes más lentos o más rápidos). Se inclinarán hacia un lado o
hacia otro en las curvas, cuesta arriba ira más lento y cuesta bajo más rápido.
Después el maestro/a le ira mostrando al conductor/a una serie de señales de tráfico que debe
respetar el autobús, haciendo paradas obligatorias, como por ejemplo: un paso de cebr a, un
semáforo en rojo, dirección prohibida, Calle cortada por obras, paradas oficiales para que suban y
bajen viajeros/as, etc.
Formas Geométricas.
Con esta actividad pretendemos que reconozcan las for mas geométricas básicas a través de la
expresión cor poral. (Especialmente para primer ciclo).
Por otro lado, en el área de música se reforzar á este reconocimiento con los instrumentos musicales
escolar es de percusión. Ejemplo: Rectángulo: caja china, Triángulo: triángulo, Círculo: pandero, etc.
Distribuidos por todo el espacio, experimentamos las posibilidades motr ices, haciendo las figur as
geométricas básicas con las manos, con los br azos, con los pies, piernas, con dos par tes a la vez,
con todo el cuerpo, más grandes o más pequeñas, etc.
Después haremos imitaciones y representaciones, por ejemplo los gestos cir cular es de brazos y
manos pueden tener una significación o imitación: Conducir un coche, dar vueltas a una manivela,
batir alimentos, imitar las aspas de un molino de viento, un ventilador, etc.
Otra manera de trabajar, sería haciendo diseños (dibujar la figuras en el espacio) y desplazamientos
con las manos, pies, etc.
El juego de la estatua.
Los niños/as se distribuirán por todo el espacio, bailarán al ritmo de la música que escuchen, y
cuando ésta cese, quedarán como estatuas, el que se mueva quedará eliminado del juego. (Esta
actividad también se puede hacer como actividad de síntesis en una sesión).
Acciones.
Se forman dos grupos, a cada componente del grupo se le asigna (maestro/a) un verbo, y tienen que
representarlo corporalmente. Los componentes del otro grupo deberán acer tarlo. Luego se
intercambian los papeles.
Números.
Se selecciona un grupo de siete niños/as, a los cuales se les entregará un instrumento de percusión
de madera (Claves, caja china, etc). El resto de la clase se coloca alrededor de ellos/as.
El maestro/a asigna a un niño/a para que comience, éste Da un golpe con el instrumento musical en
cuestión. El niño/a de su derecha tiene que dar un golpe más uno, el de su lado dos golpes más otr
o, y así sucesivamente. El niño/a que da tres golpes debe remarcarlos y decir que ha llegado a un
múltiplo de tres. (¡tres!).
Si en algún momento alguno se equivoca y por tanto se rompe la secuencia, se vuelve a empezar .
La pelota caliente.
Los alumnos/as colocados en corro se van pasando una pelota al ritmo de la música y procurando
que no caiga al suelo, ya que si esto ocurre será eliminado del juego. Por otro lado se eliminará del
juego a aquel niño o aquella niña que tenga la pelota en la mano cuando la música deje de sonar.
Caminamos por el espacio.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Andamos, por todo el espacio de la sala, sin tocar a nadie; primero despacio y después, a una señal,
más deprisa. Con esta actividad, se trabaja el aire o movimiento (música).
Esta actividad se puede ampliar o modificar, según los contenidos que se vayan a trabajar en esa
sesión. Por ejemplo, si queremos tr abajar diversos ritmos, damos la consigna de que caminen al
ritmo que se va marcando con el instrumento musical de percusión que se elija: pander a, caja china,
triángulo, etc. de esta manera también iremos introduciendo el instrumento musical que vayamos a
enseñar en esa sesión. (Los instrumentos musicales escolares se van presentando en el primer ciclo
de Educación Primaria).
Carreras del mundo al revés.
Realizar carreras en las que ganará el último en llegar a la meta. También puede hacerse una
variación del juego y realizar carreras de este tipo, pero con obstáculos o en circuito.
Iconografías colectivas.
Numerar a los participantes. Se elegirá un lugar específico donde realizar la actividad. El/la
alumno/a número 1 saldrá a escena y hará una postura, que deberá mantener todo el rato. El
número 2, saldrá a escena e intentará compensar la posición del compañero para que intente tener
sentido. Así sucesivamente, hasta que hayan salido todos los/as alumnos/as. También puede
incluirse composiciones con pelotas o aros.
Una vez hecha la composición, el profesor gritará "Movimiento", y todos deberán empezar a correr
por la sala, hasta que el profesor grite "Foto", momento en el cual, los alumnos deberán volver a la
posición inicial que habían creado.
¿Quién es?
En gran gr upo y sentados en círculo, con la cabeza agachada, tendrán que adivinar el sonido y la
fuente sonora que producirá alguno/a de sus compañer os/as.
El maestro/a indicará al que produzca el sonido con una palmada en la espalda.
Los sonidos pueden ser diversos:
_ Un grito.
_ Tararear o cantar una canción.
_ Murmullo, etc.
Esta actividad puede tener diferentes variantes, se puede realizar de pie con los ojos vendados,
excepto el que emite el sonido que irá a cara descubierta y todos deben caminar hacia la fuente
sonora.
Por otro lado, esta actividad se puede realizar con instrumentos musicales, para discriminar su
timbre.
Cuento musicado.
Se trata de que la maestra o maestro va narrando un cuento y los niños/as deben realizar sonidos
acordes con él, con diversos materiales que haya en el aula, incluso utilizar onomatopeyas cuando la
situación lo requier a.
Ejemplo: Para simular el río, haremos glisandos con el carillón, o cuando haya una tormenta usar el
bombo y el plato, etc.
Dentro o fuera.
Se reparten aros de colores por el suelo del aula, uno para cada cuatro apr oximadamente. Los
niños/as deben ir caminando al ritmo de la música y por fuera de los ar os, y cuando la música cese
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
todos deben estar dentro de un aro. De esta maner a aquellos/as niños/as que están fuera,
quedarán eliminados del juego.
Jugamos con el soplo.
Esta actividad, está enfocada principalmente para el área de música. Sirve como actividad inicial y
de motivación a las sesiones dirigidas al uso de la flauta.
Se trata de practicar una batería de soplos, atendiendo a una serie de consignas:
_ Soplar nor mal como si se fuera a apagar una vela.
_ Soplar fuerte como si quisieras apagar de una vez las velas de tu cumpleaños.
_ Soplar como si apagaras las velas de tu tarta de cumpleaños, pero una a una. Sin respirar. Se
realizarán tantos soplos como años se tenga. (2º ciclo).
_ Ahora el mismo procedimiento que el anterior pero cortando el flujo de aire sacando la punta de la
lengua.
_ Haz una pedorreta haciendo vibrar los labios fuerte.
_ Intenta soplar vibrando la lengua como si se pronunciara la letr a R:rr rrr rrr rrr r, pero sin producir
sonido.
_ Soplar aire frío, todo lo que se pueda. (Sonidos agudos) .
_ Sopla aire caliente. (Sonidos graves).
_ Sonr íe y sopla a la vez hacia abajo.
_ Ahor a sopla hacia tu nariz.
_ Sóplate un ojo y luego el otro.
_ Sóplate una oreja, luego la otra.
4. ACVTIVIDADES DE RELAJACIÓN
¿Quién anda ahí?”.
Los niños se colocan libremente por parejas uno delante del otro.
El niño de detr ás presiona con las manos la espalda de su compañero, simulando las huellas que
dejarían los animales al desplazarse por ella. Por ejemplo, el elefante se realiza con los puños
cerrados; la hormiga con la yema de los dedos; la rana con movimientos discontinuos, como si
saltara; la serpiente con un movimiento continuo, etcétera.
El niño de delante debe adivinar qué animal se ha paseado por su espalda. Luego inter cambian
papeles. Pretendemos sensibilizar las diferentes zonas de la espalda y responder a una reacción
táctil. Música: Sinfonía Pastoral de Beethoven.
Masajes.
Se pueden realizar varias actividades de relajación usando los masajes, una de ellas es la que
anteriormente hemos citado.
Pero otras que se pueden hacer serían:
_ Usar pelotas de masaje. (Presionar la pelota en la espalda del compañer o/a).
_ Usar las propias manos. (Especificando el movimiento de éstas).
Expresión artística.
Con pintura de dedos y en papel continuo, tiene que expr esar los sentimientos que le produce la
música. También se pueden pintar la línea melódica de la música.
Burbuja de aire.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Todos los niños/as se colocan en el centro de la clase de pie, separados unos de otros/as. Nos
imaginamos que estamos dentro de una burbuja grande, en la que podemos mover los brazos
arriba, a los lados, abajo, haciendo círculos como si fueran las aspas de un molino, todo el cuerpo se
mueve hasta donde pueda llegar, da vueltas, per o sin salir del sitio. Estaremos a tal distancia de los
demás que no los podremos tocar, ni ellos a nosotros/as. Ese es nuestro espacio propio, nos
pertenece sólo a nosotros/as. Imaginamos que esa burbuja sube por el aire y estamos dentro de
ella. Ahora no pesamos, somos ligeros/as como una pluma. Nuestr o cuerpo, los brazos son muy
grandes y se mueven de muchas for mas. Pero la burbuja poco a poco se va haciendo más pesada,
por eso bajamos de nuevo al suelo, y más pequeña, se va cerrando, e impide hacer movimientos, se
va haciendo más pequeño hasta que sea como una pelota, ya no podemos movernos.
Pero de pronto, la burbuja explota y tú das un salto, abriendo los brazos, y ya estamos libres del todo
par a hacer los movimientos que se quieran por todo el espacio.
Usaremos una música relajante.
La energía.
Imagínate que dentro de tu cuerpo, en el abdomen, tienes una fuente que produce una energía, una
fuerza muy grande, y tiene que salir de tu cuer po hacia todo el espacio como si fueran r ayos. Por
eso, por tus pies, por tus manos, por tus dedos salen a toda velocidad y muy fuertes los rayos de
energía que llegarán muy lejos, atravesando las paredes, el techo, el suelo. Tienes que dirigir esa
gran corriente que empuja desde dentro del cuerpo hasta todos los puntos del espacio que está a tu
alrededor.
Círculos y rectas en el aire.
Con tus manos dibuja en el aire, y después en el suelo, objetos redondos: aros, panderos, pelotas,
globos, platos, ruedas, el sol, la letra O, el número cero, un disco...
De rodillas en el suelo. Con tus manos dibuja en el aire, y después en el suelo, objetos rectos: palos,
bastones, lápices, cepillo de barrer, fregona, cohete, árboles...
Usaremos como material: papel continuo, pinturas de dedos y rotulador es de punta gruesa.
Estatuas.
Nos colocamos en distintos lugares del espacio y de distintas formas (de pie, de rodillas, sentado,
agachado, etc.), y hacemos con el cuerpo distintas estatuas. Después las harán por grupos., y los
demás tendrán que adivinar a la estatua que representan.
Estamos en una botella.
Escuchando una música tranquila, se pide a los/as niños/as que se posicionen sentados/as o,
preferiblemente estirados/as, mediante la música, y a través de las indicaciones del profesor, muy
poco a poco han de imaginar que se hacen pequeños y se introducen en una botella. Luego
imaginan que intentan salir, pero que no se pueden estirar. Seguidamente, logran romper la botella,
se estiran completamente, y permanecen un rato descansando.
Cada uno cogerá un folio y en el lugar que prefiera de la sala, realizará un dibujo relacionado con la
experiencia de la botella.
Todos sentados en círculo. Cada uno/a debe explicar el dibujo que ha hecho al resto de
compañeros/as. Seguidamente, se debe explicar cómo se siente cada uno, cómo se lo ha pasado,
qué es lo que más le ha gustado y lo que menos, etc.
Tensión y relajación.
Relajación por contrastes, a la orden, primero global: ¡De hierro! ¡De trapo! ¡De piedra! ¡De plumas!
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Relajación por contrastes, a la orden segmentaria: brazos, piernas, nalgas, cabeza (levantar sólo un
poco y dejar caer) .
Pasar de un estado de tensión a uno de relajación pero esta vez muy r ápido. En parejas, uno
controla al otro, para comprobar si de verdad es de hierro, de tr apo...
Otras variantes:
"Transporte del congelado". Grupo dividido en equipos. Relevos. Transportar al congelado (rígido)
sin que se rompa de un lado al otro del espacio. Luego hacer lo mismo pero como si estuviera
derretido. Comparar las diferencias.
Preguntarles cómo pesa más.
"Dale la vuelta a la estatua". Grupo dividido en par ejas. Uno se pone en el suelo de tal manera que
el otro no le pueda dar la vuelta. Primero oponer toda la resistencia posible. Luego dejarse. Compar
ar las diferencias.
"Urgencias". Gran grupo dividido en equipos. Se trata de trasladar lo más rápidamente posible a los
"heridos" de un sitio a otro de la sala.
Globos
Se deja el globo en el suelo y se sopla sobre él para que se mueva. Después se puede organizar un
concurso, para ver quién lleva el globo más lejos soplando.
Inventar con un compañero/ diferentes formas de intercambiarse el globo. Luego se puede intentar
con dos globos a la vez.
BIBLIOGRAFÍA
Trias, N. (2002). Juegos de música y expresión corporal. Madrid: Parramón.
De las Heras, R. (1993).Actimúsicas 9. Madrid. Ediciones ARA.
Rey Gómez, J.M., Hidalgo Diez, E. y Espinosa Manso, C. (1989).La motivación en la
escuela. Málaga: Ágor a.
www.efdeportes.com
“LA IMPORTANCIA DE LA MOTIVACIÓN Y LA RELAJACIÓN EN EL
AULA”
AUTOR: MANUEL ALEJANDRO MARTÍN MORENO
Resumen
Se presenta en el siguiente artículo una batería de actividades y juegos adecuadamente
seleccionados como técnicas de motivación y/o relajación que se pueden incluir para todas las
áreas del currículo.
1. INTRODUCCIÓN
Las actividades de motivación en clase favorecen la percepción de autonomía por par te del
alumnado y facilita la percepción de la tarea elegida como más interesante. Además, si estas
actividades se plantean de forma grupal, es decir, en la que se trabaje en cooperación con los
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
compañeros/as, harán que desarrollen el patrón de motivación por apr endizaje frente al de
lucimiento, resultando terapéutico para aquellos alumnos/as que han desar rollado miedo al fracaso.
Planteo una serie de objetivos para conseguir con estas actividades:
_ Captar la atención y la cur iosidad por el contenido.
_ Mostrar la relevancia de los contenidos más significativos de la actividad de aprendizaje.
_ Conseguir mantener el mayor nivel de interés por el contenido de la actividad y evitar el abandono
del esfuerzo preciso.
Por orto lado las actividades de relajación, como síntesis en las sesiones sobretodo de las áreas de
educación física y de música, ayudan a la relajación muscular que sirve como medio para obtener
una relajación psicológica.
La vuelta a la calma (actividad de síntesis) se presenta como el momento de la sesión más
apropiado para desarrollar las prácticas de relajación, y su reiteración ayudará a fomentar hábitos
que puedan transferirse a su vida ordinaria.
La práctica de la r elajación aporta a nuestro organismo:
- Disminución de la ansiedad.
- Aumento de la capacidad de enfrentar situaciones estresantes.
-Estabilización de las funciones cardiaca y respiratoria.
- Aumento de la velocidad de reflejos.
- Aumento de la capacidad de concentración y de la memoria.
- Aumento de la eficiencia en la capacidad de aprendizaje.
- Incremento de la habilidad para relajarse cada vez que lo necesite esté donde esté.
- Sintonización armónica de la mente y el cuerpo.
- Aumento de la capacidad de reflexión.
- Aumento de la tendencia natural de conocerse a sí mis mo.
- Aumento de la disposición del organismo a curarse a sí mismo.
- Incremento de la capacidad creativa.
- Mejor disposición para tratar a gente "tóxica" (Personas que nos invitan a sentirnos mal).
- Aumento considerable de la capacidad de visualización interna dirigida.
- Aumento de la facilidad de pensar en positivo.
- Tendencia creciente al mejoramiento de la autoimagen positiva.
- Aumento de la confianza en sí mismo.
- Disminución de la tensión arterial.
- Mejora en la circulación sanguínea.
- Normalización de la respiración.
- Sensación de eliminación de tensiones.
- Aumento de la recuperación física y mental.
- Aumento de la oxigenación cerebral.
- Ensanchamiento del campo de conciencia.
- Mejora en la calidad del sueño.
- Mayor facilidad para recordar los sueños acontecidos mientras se duerme.
2. ACTIVIDADES DE MOTIVACIÓN.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Muévete animal. Desplazarse por el espacio imitando animales. “Hoy me he encont rado...”
Los niños están sentados en círculo mirando hacia el interior . Uno de ellos dice: "Hoy me he
encontrado un león" y se mueve como si él fuera un león. El jugador de su lado repite el animal que
ha encontrado su compañer o y añade uno nuevo. "Hoy me he encontrado un león y una serpiente"
(Realiza los movimientos correspondientes). Así sucesivamente.
Cada niño tiene que repetir las palabras desde el principio en el orden correcto y añadir una más.
Una variante: Realizar sólo los movimientos corporales sin nombrar el animal.
El objetivo que se persigue, es memorizar palabras e interpretarlas corporalmente.
“Ciempiés”.
Los niños se colocan en fila, uno detrás de otro, con la mano derecha encima del hombro del jugador
que tienen delante.
El primer jugador de la fila representa la cabeza del ciempiés y debe inventar un movimiento
corporal. Los demás niños deben repetirlo, siguiendo el tempo del pandero, hasta que éste quede en
silencio. (El maestro/a dirige la marcha con un pandero).
Cuando acaba la música, el primer jugador se dirige a la cola del ciempiés para que el nuevo jugador
de cabeza invente otro movimiento, que los demás tendrán que copiar.
Juegos de rol.
Los personajes de los juegos de rol pueden cambiar en función de los temas que hayamos tratado
últimamente en el aula:
Liebres y conejos.
Lobos y cerditos.
Soles y lunas.
Tiburones y peces.
Previamente nos ponemos de acuerdo sobre los espacios (donde está la casa de la liebre, situamos
la madriguera donde los conejos están protegidos,...).
La mecánica del juego es siempre bastante parecida aunque con variaciones. Un ejemplo de cómo
introducir el juego: ''Los grandes osos (dos o más niños que llevan una capa o algún otro distintivo)
están durmiendo. Poco a poco se van despertando y se dan cuenta que tienen mucha hambre. Van
a buscar peces para comer ( el resto de los niños/as) ‘‘. En definitiva se trata del juego de siempre de
perseguir, atrapar , hacer prisioneros y llevárselos a casa, ir a salvar,...
A menudo los niños/as incorporan en el juego movimientos y sonidos de los animales que
representan.
El carnaval de los animales.
Escuchando la obra de Camille Saint-Saëns, “El carnaval de los animales”, los niños tendrán que
moverse al ritmo y en aquellas partes que así lo r equieran, imitarán con gestos los instrumentos
musicales que interpretan dicha parte de la obra, o imitarán al animal que corresponda en cada
caso.
Paseo en autobús.
Esta actividad en un principio va dirigida al alumnado del primer ciclo de educación primaria, debido
a su sencillez.
Con esta actividad se pretende:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
_ Acercar al niño/a a los medios de transporte.
_ Conocer las nociones básicas de educación vial.
_ Respetar el silencio como elemento integrante en la música.
_ Representar con movimientos, diferentes ritmos.
_ Diferenciar los distintos aires y movimientos en la música.
Se colocan las sillas en filas, los niños/as serán los pasajer os que vayan subidos en el bus. Un
niño/a hará de conductor que será el primero de dicha fila, este tocará el silbato para avisar que el
bus se pone en marcha. Arranca. Las sacudidas se notan en los cuerpos de los viajer os/as, que se
tambalean hacia delante, hacia atrás, según acelere o disminuya la velocidad. (Esta marcha la ira
marcando con un pandero, dando golpes más lentos o más rápidos). Se inclinarán hacia un lado o
hacia otro en las curvas, cuesta arriba ira más lento y cuesta bajo más rápido.
Después el maestro/a le ira mostrando al conductor/a una serie de señales de tráfico que debe
respetar el autobús, haciendo paradas obligatorias, como por ejemplo: un paso de cebr a, un
semáforo en rojo, dirección prohibida, Calle cortada por obras, paradas oficiales para que suban y
bajen viajeros/as, etc.
Formas Geométricas.
Con esta actividad pretendemos que reconozcan las for mas geométricas básicas a través de la
expresión cor poral. (Especialmente para primer ciclo).
Por otro lado, en el área de música se reforzar á este reconocimiento con los instrumentos musicales
escolar es de percusión. Ejemplo: Rectángulo: caja china, Triángulo: triángulo, Círculo: pandero, etc.
Distribuidos por todo el espacio, experimentamos las posibilidades motr ices, haciendo las figur as
geométricas básicas con las manos, con los br azos, con los pies, piernas, con dos par tes a la vez,
con todo el cuerpo, más grandes o más pequeñas, etc.
Después haremos imitaciones y representaciones, por ejemplo los gestos cir cular es de brazos y
manos pueden tener una significación o imitación: Conducir un coche, dar vueltas a una manivela,
batir alimentos, imitar las aspas de un molino de viento, un ventilador, etc.
Otra manera de trabajar, sería haciendo diseños (dibujar la figuras en el espacio) y desplazamientos
con las manos, pies, etc.
El juego de la estatua.
Los niños/as se distribuirán por todo el espacio, bailarán al ritmo de la música que escuchen, y
cuando ésta cese, quedarán como estatuas, el que se mueva quedará eliminado del juego. (Esta
actividad también se puede hacer como actividad de síntesis en una sesión).
Acciones.
Se forman dos grupos, a cada componente del grupo se le asigna (maestro/a) un verbo, y tienen que
representarlo corporalmente. Los componentes del otro grupo deberán acer tarlo. Luego se
intercambian los papeles.
Números.
Se selecciona un grupo de siete niños/as, a los cuales se les entregará un instrumento de percusión
de madera (Claves, caja china, etc). El resto de la clase se coloca alrededor de ellos/as.
El maestro/a asigna a un niño/a para que comience, éste Da un golpe con el instrumento musical en
cuestión. El niño/a de su derecha tiene que dar un golpe más uno, el de su lado dos golpes más otr
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
o, y así sucesivamente. El niño/a que da tres golpes debe remarcarlos y decir que ha llegado a un
múltiplo de tres. (¡tres!).
Si en algún momento alguno se equivoca y por tanto se rompe la secuencia, se vuelve a empezar .
La pelota caliente.
Los alumnos/as colocados en corro se van pasando una pelota al ritmo de la música y procurando
que no caiga al suelo, ya que si esto ocurre será eliminado del juego. Por otro lado se eliminará del
juego a aquel niño o aquella niña que tenga la pelota en la mano cuando la música deje de sonar.
Caminamos por el espacio.
Andamos, por todo el espacio de la sala, sin tocar a nadie; primero despacio y después, a una señal,
más deprisa. Con esta actividad, se trabaja el aire o movimiento (música).
Esta actividad se puede ampliar o modificar, según los contenidos que se vayan a trabajar en esa
sesión. Por ejemplo, si queremos tr abajar diversos ritmos, damos la consigna de que caminen al
ritmo que se va marcando con el instrumento musical de percusión que se elija: pander a, caja china,
triángulo, etc. de esta manera también iremos introduciendo el instrumento musical que vayamos a
enseñar en esa sesión. (Los instrumentos musicales escolares se van presentando en el primer ciclo
de Educación Primaria).
Carreras del mundo al revés.
Realizar carreras en las que ganará el último en llegar a la meta. También puede hacerse una
variación del juego y realizar carreras de este tipo, pero con obstáculos o en circuito.
Iconografías colectivas.
Numerar a los participantes. Se elegirá un lugar específico donde realizar la actividad. El/la
alumno/a número 1 saldrá a escena y hará una postura, que deberá mantener todo el rato. El
número 2, saldrá a escena e intentará compensar la posición del compañero para que intente tener
sentido. Así sucesivamente, hasta que hayan salido todos los/as alumnos/as. También puede
incluirse composiciones con pelotas o aros.
Una vez hecha la composición, el profesor gritará "Movimiento", y todos deberán empezar a correr
por la sala, hasta que el profesor grite "Foto", momento en el cual, los alumnos deberán volver a la
posición inicial que habían creado.
¿Quién es?
En gran gr upo y sentados en círculo, con la cabeza agachada, tendrán que adivinar el sonido y la
fuente sonora que producirá alguno/a de sus compañer os/as.
El maestro/a indicará al que produzca el sonido con una palmada en la espalda.
Los sonidos pueden ser diversos:
_ Un grito.
_ Tararear o cantar una canción.
_ Murmullo, etc.
Esta actividad puede tener diferentes variantes, se puede realizar de pie con los ojos vendados,
excepto el que emite el sonido que irá a cara descubierta y todos deben caminar hacia la fuente
sonora.
Por otro lado, esta actividad se puede realizar con instrumentos musicales, para discriminar su
timbre.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Cuento musicado.
Se trata de que la maestra o maestro va narrando un cuento y los niños/as deben realizar sonidos
acordes con él, con diversos materiales que haya en el aula, incluso utilizar onomatopeyas cuando la
situación lo requier a.
Ejemplo: Para simular el río, haremos glisandos con el carillón, o cuando haya una tormenta usar el
bombo y el plato, etc.
Dentro o fuera.
Se reparten aros de colores por el suelo del aula, uno para cada cuatro apr oximadamente. Los
niños/as deben ir caminando al ritmo de la música y por fuera de los ar os, y cuando la música cese
todos deben estar dentro de un aro. De esta maner a aquellos/as niños/as que están fuera,
quedarán eliminados del juego.
Jugamos con el soplo.
Esta actividad, está enfocada principalmente para el área de música. Sirve como actividad inicial y
de motivación a las sesiones dirigidas al uso de la flauta.
Se trata de practicar una batería de soplos, atendiendo a una serie de consignas:
_ Soplar nor mal como si se fuera a apagar una vela.
_ Soplar fuerte como si quisieras apagar de una vez las velas de tu cumpleaños.
_ Soplar como si apagaras las velas de tu tarta de cumpleaños, pero una a una. Sin respirar. Se
realizarán tantos soplos como años se tenga. (2º ciclo).
_ Ahora el mismo procedimiento que el anterior pero cortando el flujo de aire sacando la punta de la
lengua.
_ Haz una pedorreta haciendo vibrar los labios fuerte.
_ Intenta soplar vibrando la lengua como si se pronunciara la letr a R:rr rrr rrr rrr r, pero sin producir
sonido.
_ Soplar aire frío, todo lo que se pueda. (Sonidos agudos) .
_ Sopla aire caliente. (Sonidos graves).
_ Sonr íe y sopla a la vez hacia abajo.
_ Ahor a sopla hacia tu nariz.
_ Sóplate un ojo y luego el otro.
_ Sóplate una oreja, luego la otra.
4. ACVTIVIDADES DE RELAJACIÓN
¿Quién anda ahí?”.
Los niños se colocan libremente por parejas uno delante del otro.
El niño de detr ás presiona con las manos la espalda de su compañero, simulando las huellas que
dejarían los animales al desplazarse por ella. Por ejemplo, el elefante se realiza con los puños
cerrados; la hormiga con la yema de los dedos; la rana con movimientos discontinuos, como si
saltara; la serpiente con un movimiento continuo, etcétera.
El niño de delante debe adivinar qué animal se ha paseado por su espalda. Luego inter cambian
papeles. Pretendemos sensibilizar las diferentes zonas de la espalda y responder a una reacción
táctil. Música: Sinfonía Pastoral de Beethoven.
Masajes.
Se pueden realizar varias actividades de relajación usando los masajes, una de ellas es la que
anteriormente hemos citado.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Pero otras que se pueden hacer serían:
_ Usar pelotas de masaje. (Presionar la pelota en la espalda del compañer o/a).
_ Usar las propias manos. (Especificando el movimiento de éstas).
Expresión artística.
Con pintura de dedos y en papel continuo, tiene que expr esar los sentimientos que le produce la
música. También se pueden pintar la línea melódica de la música.
Burbuja de aire.
Todos los niños/as se colocan en el centro de la clase de pie, separados unos de otros/as. Nos
imaginamos que estamos dentro de una burbuja grande, en la que podemos mover los brazos
arriba, a los lados, abajo, haciendo círculos como si fueran las aspas de un molino, todo el cuerpo se
mueve hasta donde pueda llegar, da vueltas, per o sin salir del sitio. Estaremos a tal distancia de los
demás que no los podremos tocar, ni ellos a nosotros/as. Ese es nuestro espacio propio, nos
pertenece sólo a nosotros/as. Imaginamos que esa burbuja sube por el aire y estamos dentro de
ella. Ahora no pesamos, somos ligeros/as como una pluma. Nuestr o cuerpo, los brazos son muy
grandes y se mueven de muchas for mas. Pero la burbuja poco a poco se va haciendo más pesada,
por eso bajamos de nuevo al suelo, y más pequeña, se va cerrando, e impide hacer movimientos, se
va haciendo más pequeño hasta que sea como una pelota, ya no podemos movernos.
Pero de pronto, la burbuja explota y tú das un salto, abriendo los brazos, y ya estamos libres del todo
par a hacer los movimientos que se quieran por todo el espacio.
Usaremos una música relajante.
La energía.
Imagínate que dentro de tu cuerpo, en el abdomen, tienes una fuente que produce una energía, una
fuerza muy grande, y tiene que salir de tu cuer po hacia todo el espacio como si fueran r ayos. Por
eso, por tus pies, por tus manos, por tus dedos salen a toda velocidad y muy fuertes los rayos de
energía que llegarán muy lejos, atravesando las paredes, el techo, el suelo. Tienes que dirigir esa
gran corriente que empuja desde dentro del cuerpo hasta todos los puntos del espacio que está a tu
alrededor.
Círculos y rectas en el aire.
Con tus manos dibuja en el aire, y después en el suelo, objetos redondos: aros, panderos, pelotas,
globos, platos, ruedas, el sol, la letra O, el número cero, un disco...
De rodillas en el suelo. Con tus manos dibuja en el aire, y después en el suelo, objetos rectos: palos,
bastones, lápices, cepillo de barrer, fregona, cohete, árboles...
Usaremos como material: papel continuo, pinturas de dedos y rotulador es de punta gruesa.
Estatuas.
Nos colocamos en distintos lugares del espacio y de distintas formas (de pie, de rodillas, sentado,
agachado, etc.), y hacemos con el cuerpo distintas estatuas. Después las harán por grupos., y los
demás tendrán que adivinar a la estatua que representan.
Estamos en una botella.
Escuchando una música tranquila, se pide a los/as niños/as que se posicionen sentados/as o,
preferiblemente estirados/as, mediante la música, y a través de las indicaciones del profesor, muy
poco a poco han de imaginar que se hacen pequeños y se introducen en una botella. Luego
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
imaginan que intentan salir, pero que no se pueden estirar. Seguidamente, logran romper la botella,
se estiran completamente, y permanecen un rato descansando.
Cada uno cogerá un folio y en el lugar que prefiera de la sala, realizará un dibujo relacionado con la
experiencia de la botella.
Todos sentados en círculo. Cada uno/a debe explicar el dibujo que ha hecho al resto de
compañeros/as. Seguidamente, se debe explicar cómo se siente cada uno, cómo se lo ha pasado,
qué es lo que más le ha gustado y lo que menos, etc.
Tensión y relajación.
Relajación por contrastes, a la orden, primero global: ¡De hierro! ¡De trapo! ¡De piedra! ¡De plumas!
Relajación por contrastes, a la orden segmentaria: brazos, piernas, nalgas, cabeza (levantar sólo un
poco y dejar caer) .
Pasar de un estado de tensión a uno de relajación pero esta vez muy r ápido. En parejas, uno
controla al otro, para comprobar si de verdad es de hierro, de tr apo...
Otras variantes:
"Transporte del congelado". Grupo dividido en equipos. Relevos. Transportar al congelado (rígido)
sin que se rompa de un lado al otro del espacio. Luego hacer lo mismo pero como si estuviera
derretido. Comparar las diferencias.
Preguntarles cómo pesa más.
"Dale la vuelta a la estatua". Grupo dividido en par ejas. Uno se pone en el suelo de tal manera que
el otro no le pueda dar la vuelta. Primero oponer toda la resistencia posible. Luego dejarse. Compar
ar las diferencias.
"Urgencias". Gran grupo dividido en equipos. Se trata de trasladar lo más rápidamente posible a los
"heridos" de un sitio a otro de la sala.
Globos
Se deja el globo en el suelo y se sopla sobre él para que se mueva. Después se puede organizar un
concurso, para ver quién lleva el globo más lejos soplando.
Inventar con un compañero/ diferentes formas de intercambiarse el globo. Luego se puede intentar
con dos globos a la vez.
BIBLIOGRAFÍA
Trias, N. (2002). Juegos de música y expresión corporal. Madrid: Parramón.
De las Heras, R. (1993).Actimúsicas 9. Madrid. Ediciones ARA.
Rey Gómez, J.M., Hidalgo Diez, E. y Espinosa Manso, C. (1989).La motivación en la
escuela. Málaga: Ágor a.
www.efdeportes.com
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
“LA IMPORTANCIA DE LA PRENSA EN EL SISTEMA EDUCATIVO
COMO RECURSO DIDÁCTICO”
AUTOR: MANUEL ALEJANDRO MARTÍN MORENO
Resumen
Es evidente que los periódicos no están escritos para los escolares, pero su uso en las aulas es muy
recomendable. Con frecuencia, encontramos en ellos noticias o reportajes que hacen referencia a la
ciencia, a nuevos descubrimientos, a lugares remotos, a espacios geográficos y naturales de mucho
interés... (y a otras muchas cosas que hoy no vienen a cuento). La lectura de esos textos, más la
visión e interpretación de las infografías, mapas, fotografías, etc. que los acompañan son elementos
que ayudan al maestro o la maestra a presentar determinados temas y a facilitar su comprensión.
1. LA PRENSA Y SUS POSIBILIDADES DIDÁCTICAS
De acuerdo con Sevillano y Bartolomé (1989), el uso ocasional o sistemático de la prensa en las
aulas desarrolla en el alumnado entre otras ventajas las siguientes:
a) Permite ampliar la cosmovisión del alumnado al introducir en el proceso de enseñanzaaprendizaje contenidos cargados de actualidad que hacen funcionales sus aprendizajes y los llenan
de significado.
b) Fomenta la inquietud por tener conocimiento global: política, humor, deportes, religión, mundo
laboral, leyes, sucesos, vida internac inal.
c) Agiliza los procesos mentales al incorporar textos dinámicos, cambiantes, globalizadores y
fomenta la transferencia.
d) Armoniza el diálogo, el estudio, el trabajo en grupo, las técnicas de búsqueda, selección y
clasificación de información, puestas en común...
e) Libera del innecesario memorismo d nombres, fechas y lugares para dedicarse más tiempo a las
grandes líneas de pensamiento y acción que son las que han movido y mueven la actividad de la
humanidad.
f) Actualiza lo histórico al contemplar cómo los hombres y mujeres de hoy organizan congresos,
encuentros, publican obras, celebran centenarios y recuperan la memoria, el recuerdo y la actividad
de otros hombres y mujeres o de hechos y acontecimientos del pasado.
Puesto que la prensa es un material rico y cargado de matices e intenciones, hemos de ser
cuidadosos al introducir su uso en el aula y por ello es conveniente tener en cuenta:
Se deben utilizar diversos periódicos o revistas para que la información sea plural y permita al
alumnado discernir entre las informaciones y opiniones que se manifiestan sobre un hecho o
acontecimiento. Cuando sólo se utiliza un periódico, se niega la libertad, el pluralismo y el respeto,
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
ya que, en mi opinión, la objetividad y la bondad no se da en ninguno, aunque todos participan algo
de la independencia, libertad de expresión y objetividad en los juicios e informaciones.
Debe existir una línea de acción clara y una planificación acerca de las actividades que deben
realizar los alumnos, en caso contrario, aumenta el riesgo de perderse en el bosque de la
información, las noticias triviales, los sucesos, sólo deporte, etc. En este sentido, tampoco se debe
censurar ninguna sección del periódico. Todas deben ser estudiadas y contempladas pero cada una
en su momento o cuando sea necesario.
Desde el punto de vista organizativo, presupone entre otras cosas:
Una nueva concepción del currículo escolar, de funciones de la enseñanza y del aprendizaje e
innovaciones en cuanto a los contenidos, la metodología y la evaluación. Todo el aula debe
contagiar aprendizaje. Se aprende con todos los sentidos. Todo el espacio estará en función del
aprendizaje. Por tanto, las paredes serán un gran mural donde colocar recortes de interés general,
acerca de diferentes temas, de actualidad, formativos, etc.
El aula debe ser un centro de recursos pues, la prensa es más eficaz cuando se dispone de
diccionarios, enciclopedias, libros o multimedia de consulta y ampliación de temas que enriquezcan
el aprendizaje.
La prensa, a igual que cualquier otro medio de comunicación, nos ofrece, al menos, dos
posibilidades fundamentales para su uso en el aula: como objeto de estudio y como medio o
instrumento para el aprendizaje, en la doble vertiente de recurso didáctico y/o medio de expresión
creativa por parte del alumnado. Además la prensa, como medio de comunicación, se convierte en
un gran eje transversal, tal y como se entiende desde el DCB como un conjunto de aspectos de
especial relevancia durante los últimos años, que no aparece apropiado incluirlos ni como áreas
aisladas ni como bloques de contenidos dentro de un área concreta. Parece mejor impregnar la
actividad educativa en su conjunto con estos contenidos, por lo que se incluyen en varios bloques de
las distintas áreas. Desde esta perspectiva podemos concretar diciendo que la prensa, nos ofrece
entre otras, las siguientes distintas posibilidades didácticas:
a) La prensa como objeto de estudio. Para ello podemos elaborar unidades didácticas destinadas a
un área o asignatura concreta como Lengua en la etapa de Primaria.
b) La prensa como eje transversal. Igualmente podríamos elaborar materiales de apoyo que no se
enmarcarían en ningún área sino que irradiarían la mayor parte de ellas, dándoles un carisma vivo y
de actualidad a sus contenidos, que pueden ser tratados incluso en diferentes niveles, atendiendo s
iempre a las edades psicoevolutivas de los niños y jóvenes a quienes se dirige y a su contexto, para
que los aprendizajes les sean significativos. Desde esta perspectiva podemos decir que la prensa se
convierte en importante tema transversal.
c) La prensa como recurso didáctico o material auxiliar de las diferentes áreas o niveles. Esto
supone por parte del profesorado la recopilación de un banco de datos, noticias e informaciones
recogidas a lo largo del tiempo de tal forma que cuando éste aborde una unidad didáctica
determinada disponga de estos recursos para su desarrollo. En este sentido, sólo recordar que los
materiales deben ser actualizados de forma sistemática ya que de cualquier otra forma quedarían
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
obsoletos y, por tanto, no cumplirían su función de motivadores y sus aprendizajes no tendrían la
misma carga de significación y funcionalidad.
d) La prensa como medio de expresión creativa por parte del alumnado. Es la vía de participación
del alumnado en la elaboración de la prensa en un doble sentido bien elaborando o participando con
la prensa local que suele leer o bien elaborando un periódico escolar en su propio centro. Esta vía
suele tener un gran atractivo para el alumnado ya que de esta forma se siente auténtico protagonista
y es un espacio adecuado para verter y desarrollar de forma activa los aprendizajes que ha
realizado.
Por otro lado, entiendo que las técnicas de trabajo en el aula con prensa son un recurso que ofrece
otras posibilidades didácticas que antes no se han especificado:
• Pueden resultar rentables al profesorado tanto en gasto de energía personal como en el
cumplimiento de objetivos;
• Requieren bajo costo económico y pueden desarrollarse sin complicaciones en cualquier aula;
• Son lo suficientemente flexibles como para encajar en las propuestas de las finalidades
educativas de un Centro;
• Permiten la formación de equipos de trabajo y la colaboración;
• Facilitan la motivación por la tarea a realizar.
2. SELECCIÓN DE DOCUMENTOS DE PRENSA
Los documentos de prensa son un material que está en la sociedad actual. Puede considerarse a los
textos de prens a como " el eje en torno al que se desenvuelven la vida en las sociedades
contemporáneas". Por tanto, "es fundamental suscitar la capacidad de seleccionar los mensajes de
manera crítica y clasificar olas de información discontinuas y heterogéneas en conocimientos
organizados y coherentes" (Pérez Serrano, 1985). Una reflexión, quizá demasiado utilizada,
demasiado manoseada ya ha sido la consideración de que en un mundo cada vez más complejo y
donde el impacto de los medios de comunicación social es evidente, la escuela no puede quedar al
margen (Rotger y Roque, 1982; Miravalles, 1985).
Para hacer uso de los documentos de prensa de manera eficaz, habría que tenerse en cuenta una
serie de pautas, que exponemos muy brevemente:
a) Consideraciones generales:
Como consideración primera, señalar la importancia de utilizar el documento de prensa integrado en
el planteamiento didáctico como un elemento más y no usarlo como un "juguete del momento". No
se trata tanto de: -"ahora que no sé que hacer... vamos a jugar un poco" como de programar
actividades para momentos concretos.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
b) La selección propiamente dicha:
Para seleccionar un documento, debemos tener en cuenta su adecuación a los objetivos, el nivel de
complejidad, el costo, la disponibilidad o el acceso que tenemos a dicha información y la cualidad
técnica.
c) Evaluación de los documentos:
Para poder evaluar, a modo de sugerencia, incluimos una serie de preguntas que deben ser
consideradas por el docente: ¿Ayudará a alcanzar los objetivos?, ¿incorpora elementos de
comparación y reflexión?, etc.
3. METODOLOGÍA A SEGUIR EN EL USO DE LA PRENSA EN EL AULA
La metodología que vertebra las técnicas de trabajo en el aula con prensa se ajusta a las siguientes
notas distintivas:
1) Activa , en cuanto que facilita el trabajo conjunto entre el docente y el grupo de aprendizaje:
se investiga, se descubre... en colaboración con otros.
2) Dialogante , en la medida en que se utiliza la interacción comunicativa como medio eficaz
para asociar a los alumnos en la gestión de su propio proceso de aprendizaje.
3) Grupal , en cuanto que se potencia el trabajo cooperativo como fórmula general.
4) Flexible y abierta, porque es susceptible de modificaciones, dependiendo del grupo de
alumnos con el que se trabaja.
5) Investigadora, ya que se utiliza el trabajo y el descubrimiento para que el grupo de
aprendizaje analice los problemas.
Consideramos que esta metodología actúa cubriendo un amplio abanico de influencias cuyos
efectos se producen en el ámbito cognitivo, en el afectivo-social, el creativo-dinámico y en el ámbito
relacional.
4. NUESTRO PERIÓDICO ESCOLAR
A lo largo de varios cursos se han realizado varios boletines del periódico escolar del CEIP Virgen
del Rosario (Jayena), desde que en 2004 se empezar á a realizar el periódico escolar en este centro.
Quiero resaltar que la metodología seguida en este colegio, incluso en mi aula, para trabajar la
prensa en la enseñanza es la referida en el punto D) del apartado 1, es decir, "la prensa como medio
de expresión creativa por parte del alumnado”. Y eso es así porque a opinión de la gran mayoría del
profesorado del centro, creemos que la mejor forma de utilizar la prensa en el aula es elaborando un
periódico escolar en el centro. Como ya dije, esta vía es muy atractiva para el alumnado ya que los
implica en el proceso de elaboración y se hacen participes o protagonistas, lo cual lleva a un
aprendizaje totalmente significativo.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Además, que mejor forma hay para el alumnado de conocer las noticias de su entorno que hacerles
buscar las noticias más relevantes de los últimos días en su pueblo o entorno. Por otro lado, una vez
terminado el periódic o, todo tipo de alumno y alumna, de todos los cursos, puede obtener una copia
con la cual poder leer las noticias, las cuales son del interés del alumnado puesto que se han
recopilado de informaciones del entorno de todo tipo (deportes, cultura, sucesos, actividades
extraescolares, fiestas, etc). Esta posibilidad para los niños y niñas del colegio no existe en oros
medios de comunicación en los que las noticias nos las entregan empaquetadas, con la extens ión y
profundidad que desea el editor, y sin la consecuente cercanía al entorno que puedan llegar a tener
las noticias del periódico escolar.
Una vez terminado el periódico escolar se envía a la filmadora en la que se elabora todas las copias
que se repartirán a toda la comunidad educativa. Para que todo fuera por buen cauce, se necesita la
colaboración económica de todos los habitantes de Jayena (o de la comunidad educativa en
concreto) para que se mantenga las publicaciones que se realizan. Su sostenimiento económico
empezaba por su adquisic ión. El último número tuvo un coste económico de 2 € cada ejemplar y se
vendió al precio de 1 € gracias a la colaboración del Excmo. Ayuntamiento de Jayena y la Editorial
S.M.
En alguna publicación colaboraron además de los mencionados anteriormente, "Viajes Ainhoa" y
"Caja de Granada", los cuales aparecen en los apartados reservados para la publicidad en el
periódico.
La publicación de los diferentes artículos es gestionada por una Comisión del Consejo Escolar del
Centro que fue creada durante el curso escolar 2003-2004 para supervisar la idoneidad de los
artículos.
Para especificar mejor como se llevo a cabo el proceso de elaboración del periódico escolar, así
como de participación de toda la comunidad educativa, especificaré en el apartado siguiente los
pasos que se siguen para su buen desarrollo.
4.1 Proceso de elaboración del periódico escolar
La redacción del periódico escolar puede hacerse a nivel de aula o a nivel de todo el colegio. Voy a
explicar la estructura organizativa seguida en nuestro colegio. La estructura suele ser piramidal y en
su cúspide se encuentra el director (que será el director/a o el jefe/a de estudios del colegio). Junto a
él se encontrarán tutores que serán los responsables de seleccionar y priorizar los contenidos
informativos que obtendrán los alumnos y alumnas del centro, que serán los grandes responsables
de la búsqueda y selección de la información. Estos contenidos seleccionados serán los que
configurarán el periódico.
Cada tutor enviará la información correspondiente al director, el cual se encargará finalmente de
elegir las noticias que aparecerán en el periódico, así como de la extensión de cada una de ellas.
El director funciona como el conductor de orquesta, procurando una gran coordinación para que
todos los tutores ejecuten en sus tiempos respectivos la tarea asignada y el resultado de conjunto
sea el previsto. Para esta labor el director cuenta con los tutores que son quienes coordinan a sus
alumnos/as para que la información esté ordenada por secciones y tenga su debida redacción.
El primer paso que se sigue para la redacción de un periódico la búsqueda de noticias por parte de
los alumnos y alumnas de cada curso. Hay varias formas de dirigir este proceso. O bien, cada curso
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
se encarga de una sección o por otro lado, en cada curso, se divide en grupos para encargarse de
las distintas secciones del periódico.
Los contenidos informativos de un periódico se presentan a los lectores con un orden y una
estructura. Esta estructura facilita la localización y selección de cualquier contenido y, dependiendo
de los intereses del lector, establecer su propio orden de lectura. Al elaborar el periódico entre
alumnado y profesorado, éstos se dan cuenta de esta estructura y de su por qué.
La estructura de nuestro periódico escolar en secciones se realiza considerando fundamentalmente
dos criterios:
El ámbito territorial o geográfico en el que se producen los hechos o informaciones, dando lugar a
las secciones de Nacional, Regional (Andalucía), Local (Jayena).
Sectores o temas de interés. En este caso la información se agrupa por su contenido con
independencia del lugar en el que suceda. De acuerdo con este criterio nos encontraremos
con las secciones de Sociedad, Cultura, Economía, Deportes, Espectáculos, Sucesos,
Actividades extraescolares, etc.
No obstante, consideramos que si una noticia puede responder a más de un criterio, puede
tener ubicación en más de una sección del periódico escolar.
Por otro lado, el director del colegio (director del periódico) utiliza una herramienta organizativa para
que el periódico escolar tenga un guión que lo estructure: el planillo. El planillo es el documento en el
que se pueden vis ionar todas las páginas que tendrá el periódico y los elementos que lo irán
conformando. Será la guía de planificación y dónde se reflejan las modificaciones que se vayan
realizando a lo largo de todo el pr oceso de producción. En la primera planificación se tiene en
cuenta: la publicidad contratada, previsión de noticias, paginación, etc. A partir de estos primeros
elementos se realizará la distribución de los temas y la publicidad en las distinta páginas. Con esta
primera planificación, el director y los tutores conocen las páginas asignadas a cada secón (aún se
pueden modificar) y el espacio ocupado por la publicidad y a partir de aquí, se empiezan a configurar
las páginas de nuestro periódico.
La estructura de las páginas no suele ser arbitraria sino que se ajusta a ciertos esquemas
establecidos por el periódico dependiendo de la relevancia que se quiera dar a una determinada
noticia.
La jerarquización a la que aludo anteriormente se manifiesta en el tratamiento dado a la noticia en
cuanto a titulares, columnas, lugar de la página, fotografías, etc. Para la redacción del periódico se
tiene en cuenta los ciertos convencionalismos, que además han de ser explicados al alumnado una
vez recopiladas las noticias:
La portada recoge lo más importante del periódico.
Las secciones fijas priman sobre las no estables.
Los artículos de opinión de colaboradores tendrán más importancia cuanto más cerca estén a los
intereses del alumnado.
Las páginas pares se ven menos que las impares.
La mitad superior del periódico se ven menos que las impares.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Una información con un bloque de titulación múltiple (epígrafe, título, subtítulo, subtítulos inferiores,
etc.) tiene más importancia que una información sin bloque.
Por otra parte, se estudiarán las fotografías y se decidirán las que no apoyarán el temas o temas
principales (siempre a decisión de tutores y director). Las fotografías podrán ser, realizadas por los
niños y niñas del colegio, bajadas de Internet, sacadas del ordenador o fotocopiadas de algún
articulo de revistas o similares.
Por último, se comienzan a cerrar las páginas una vez que las noticias están colocadas en sus
respectivas secciones y las fotografías y publicidad también están debidamente colocadas.
Conforme se van cerrando páginas se editan en papel, se revisan y cuando tienen el visto bueno de
todos los tutores y director se envían a la filmadora para que haga sus respectivas copias.
5. BIBLIOGRAFÍA
PÉREZ SERRANO, G. (1985): El análisis de contenido de la prensa. Madrid. UNED.
MIRAVALLES, L. (1985): Iniciación al periodismo escolar. Salamanca. Instituto de Ciencias de
la Educación.
ROTGER, B. Y ROQUE, J. (1982): Cómo leer la prensa escrita. Madrid. Escuela Española.
GONNET, J. (1984): El periódico en la escuela. Creación y utilización. Madrid. Narcea.
LA PRENSA EN EL AULA (1993) : Suplementos “Aula de prensa”. Madrid. Álabe.
VISO, J.F. (1992): “Profesores dinamizadores de prensa”. Alminar.
TÍTULO: Perspectiva histórica de la Inteligencia Artificial. Aplicación a la didáctica de la
Informática y de las Matemáticas.
AUTOR: JAVIER CAYETANO RODRÍGUEZ.
Resumen: En este artículo se aborda la disciplina de la Inteligencia Artificial desde una perspectiva
histórica, procurando que sirva como apoyo en la práctica docente de las áreas científicas
directamente relacionadas con ella: la informática y la matemática.
INTRODUCCIÓN: La inteligencia artificial (IA) es un área de conocimiento muy atractiva para los
alumnos tanto de estudios universitarios como de educación secundaria y bachillerato. Sus objetivos
y algunos de sus logros han sido ampliamente divulgados (a veces hasta la exageración), por
ejemplo en la ciencia ficción. Este interés puede aprovecharse para conectar con otras disciplinas
más “áridas” para los alumnos, como puede ser la matemática, especialmente alguna de las partes
más abstractas, como la resolución de problemas o diseño de algoritmos.
Para ello, pensamos que puede hacerse dando algunas “pinceladas” sobre la relación que tienen las
matemáticas con la IA, bien comentando cómo han intervenido en su evolución histórica, o bien
mediante la aplicación directa de contenidos y conceptos matemáticos a la resolución de alguno de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
los problemas de IA. Como ejemplo tenemos el uso de vectores, el álgebra booleana, máquinas de
Touring, lógica matemáticas, etc.
En este artículo veremos cuáles son los principales conceptos de la IA, su relación y tratamiento
matemático (de manera descriptiva) en las distintas fases por las que ha pasado la IA. También se
repasarán los conceptos básicos que maneja la IA.
En primer lugar, revisemos qué se entiende por “Inteligencia Artificial”. Es conveniente tener claro a
qué nos referimos al utilizarlo, pues en muchas ocasiones difiere de la idea preconcebida que
tenemos debido a referencias previas que tenemos, como las que nos pueden llegar de la ciencia
ficción.
1. CONCEPTO DE INTELIGENCIA ARTIFICIAL.
El propósito de la inteligencia artificial es hacer computacional el conocimiento humano no
anatítico por procedimientos simbólicos, conexionistas o híbridos. Para el conocimiento analítico
existen otras ramas de la computación que estudian los métodos y técnicas adecuadas para su
representación formal y posterior desarrollo de los programas de ordenador correspondientes.
Para conseguir una visión razonablemente amplia del contenido de la inteligencia artificial
usaremos criterios extensionales (porporcionando una relación lo más completa posible de los
temas que estudia la inteligencia artificial), junto a otros criterios intensionales (que establecen las
reglas de clasificación), de forma que al enfrentarnos con un problema computacional (o con un
método de solución) específico podamos concluir si pertenece o no al campo de la inteligencia
artificial en función.
Así, en la inteligencia artificial existen dos perspectivas básicas:
a) La inteligencia artificial como ciencia de lo natural o análisis
El procedimiento teórico busca una explicación de esa correlación en términos de un conjunto
de leyes generales de un nivel superior que permiten predecir lo que ocurriría en otros casos no
observados. Realmente lo que hace es buscar un modelo del conocimiento humano, generalmente
organizado en varios niveles (estático, dinámico y estratégico) para poder usarlo en predicción. Esta
técnica se basa en experimentos para conseguir una teoría del conocimiento computable con
capacidad predictiva (como una ley física)
b) Inteligencia artificial como ciencia de lo artificial o ingeniería de síntesis
Aspira a convertirse en una ingeniería en sentido estricto. Ahora se parte de un conjunto de
especificaciones funcionales y se busca la síntesis de un sistema (programa más máquina) que las
satisfaga.
A su vez en ambas ramas cooperan dos paradigmas, que constituyen dos formas de analizar
un proceso y dos metodologías de síntesis de una solución:
Computación simbólica, de grano grueso y programable.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Computación conexionista, de grano pequeño y autoprogramable por aprendizaje.
En inteligencia artificial trabajamos con información y conocimiento, y ambos son pura forma,
totalmente independiente del sistema físico que las soporta. El resultado es un programa de
ordenador sobre una máquina específica desarrollado a partir de un modelo del conocimiento que
supuestamente usa el operador humano que realiza esa tarea.
Las tareas que aborda la inteligencia artificial de síntesis son tareas de alto nivel, y pueden
clasificarse en tres grandes grupos ordenados en grado de dificultad creciente:
1. Dominios formales.- Las tareas toman la forma genérica de solucionadores de problemas
mediante búsquedas en un espacio de estados de conocimiento y pueden ser juegos o
problemas lógico-matemáticos. Son tareas precisas en el conocimiento, con pocos
elementos y su comportamiento se puede describir de forma completa e inequívoca. Son
micromundos formales. Este apartado forma parte de la etapa inicial de la inteligencia
artificial y aportó los procedimientos de búsqueda como tarea genérica
2. Dominios técnicos.- Tienen que ver con el diagnóstico médico, la detección de fallos, la
planificación de trayectorias de robots, etc. Aquí. La tarea a sintetizar admite una
representación dentro de una jerarquía de tareas genéricas de análisis, de modificación o de
síntesis que son válidas en muchas aplicaciones con sólo modificar la parte del conocimiento
que hace referencia a entidades específicas del dominio de la aplicación. La característica
de estas tareas es el carácter limitado del conocimiento que manejan (dominios estrechos) y
la posibilidad de formalizar ese conocimiento con las técnicas disponibles. Ha dado lugar a la
Ingeniería del conocimiento y busca procedimientos de síntesis de sistemas con las
siguientes facetas:
a) se parte de la descripción de la tarea a nivel de conocimiento (Allen Newell). Para ello es
necesario realizar un proceso de obtención de ese conocimiento a partir del experto
humano que lo posee.
b) se busca una representación de ese conocimiento separándolo de los mecanismos de
aplicación del mismo (inferencia) de forma que pueda acumularse por procedimientos
incrementales (donde no es deseable una separación total)
c) se seleccionan las técnicas adecuadas para su implementación y se desarrolla un primer
prototipo
d) se hace énfasis en el carácter de ingeniería buscando procedimientos (explícitos,
reproducibles y parcialmente independientes del dominio) sistemáticos de implentación,
evaluación y refinamiento de esos prototipos
e) se usan lenguajes y entornos de programación que facilitan el desarrollo rápido y
eficiente de aplicaciones
3. Funciones básicas y genuinas del comportamiento humano.- Realmente es lo que
hacemos a todas horas sin darnos cuenta; ver, oír, caminar, pensar, hablar, etc. Por su
importancia se le va a dedicar el siguiente apartado.
1.2 Idea intuitiva del comportamiento artificial
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
El concepto de inteligencia está sacado de la psicología cognoscitiva y pertenece a una familia
más amplia de construcciones teóricas para ayudar en la descripción del comportamiento observable
de sistemas complejos en interacción con su medio. Hablar de la inteligencia artificial en ese sentido
supone querer comprender y duplicar las funciones del comportamiento humano. Algunas de sus
características son:
a) Su aparente simplicidad en el ser humano.
b) Lo complejo que son los procesos cognoscitivos elementales a la hora de sintetizarlos.
c) El uso masivo de conocimientos, suponiendo que los mecanismos de inferencia por
encadenamiento de reglas son insuficientes para modelar tareas cognoscitivas (hace falta
un lenguaje de representación con la capacidad y robustez del lenguaje natural).
d) El estilo peculiar de computación que usa el ser vivo. Toda computación artificial es
extensional, por el contrario hay evidencias sobre el carácter intensional (por propiedades) e
intencional (por propósitos) de la computación biológica, donde la inferencia es inmediata
(refleja).
e) El reconocimiento (según Maturana y Varela) de que todo conocer depende de la estructura
que conoce (lo cognoscitivo es propio de lo vivo).
f) La hipótesis fuerte de la IA es hacer computacional este conocimiento propio de lo vivo
(reducir los procesos cognoscitivos a un nivel simbólico).
En un diagrama funcional de un agente inteligente (Newell y Simon), el agente interacciona
con su medio a través de un conjunto de sensores. Posteriormente se realiza un procesamiento
multisensorial de alta semántica con referencia a contenidos de memoria a la que se llama
percepción. El objetivo de ambos procesos es identificar al medio de acuerdo con un modelo de
representación interna que permite comprender el significado de imágenes y palabras. El agente
realiza también tareas motoras que inciden en el medio, suelen ser acciones de semántica baja o
media. El grado de semántica de una señal es proporcional a la capacidad operacional del símbolo
que transporta.
Entre estas dos familias de tareas (perceptuales y motoras) existe un conjunto intermedio de
tareas de decisión que trabajan entre espacios de representación, sin conexión directa con el medio.
Incluyen los procesos cognoscitivos asociados al pensamiento y al lenguaje. Para la realización de
estas tareas el agente posee un modelo del medio y un conjunto de propósitos y para alcanzar sus
metas usa el ‘principio de racionalidad’ (según Newell).
El principio de racionalidad no es operacional, es decir, nos dice qué hacer pero no cómo
hacerlo. Cada vez que se encuentra un procedimiento efectivo para identificar, capturar y
representar de forma computable el conocimiento necesario para la síntesis no trivial de esas tareas
de percepción, decisión o planificación motoras tenemos un sistema de IA. El problema de la IA
aplicada es pasar del nivel de especificaciones al nivel de componentes. Toda la computación
termina en el nivel físico de la electrónica digital. La clave de la Inteligencia Artificial es conseguir
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
programas traductores intermedios que conecten las primitivas de bajo nivel con las del lenguaje de
representación cada vez más próximo al lenguaje natural.
Los criterios intensionales (por propiedades) permiten distinguir las fronteras de la Inteligencia
Artificial con las otras ramas de la computación. Tenemos un problema de Inteligencia Artificial
siempre que:
No exista una solución analítica o algorítmica conocida.
Cuando existiendo esa solución, la explosión combinatoria la haga ineficiente.
Cuando el conocimiento necesario es masivo, incompleto, complejo y difícil de representar.
Cuando es necesario el aprendizaje y la inyección de conocimiento del dominio.
Siempre que abordemos tareas cognoscitivas que usen conocimiento de sentido común.
Y tendremos una solución de problemas propia de la inteligencia artificial cuando:
Utiliza una estructura de tareas genéricas que permite capturar los aspectos generales del
problema y de sus procedimientos de solución de forma que las situaciones individuales se
tratan por los métodos asociados a las clases a las que pertenecen.
Usa heurísticas que intentan capturar el conocimiento accesible (incompleto e impreciso)
del dominio.
Separa el conocimiento de su uso en inferencia y hace énfasis en el primero
Permite manejar el razonamiento impreciso y temporal
Incluye algún tipo de aprendizaje: simbólico o conexionista. Sin aprendizaje no hay
inteligencia artificial.
Para entender el paso de la computación anatítico-algorítmica a la inteligencia artificial es
preciso dar un salto desde el conocimiento que es necesario inyectar desde el exterior del sistema
para entender el proceso (pasar del nivel bajo al nivel alto).
En el proceso de bajo nivel se pueden describir tres pasos. En el procesado de bajo nivel
prácticamente toda la información está en la imagen (para el reconocimiento de imágenes, por
ejemplo). El segundo paso es el preproceso que extrae características locales o integrales de
naturaleza analítica que no exigen conocimiento complementario para ser entendidos por un
observador (descripción complementaria). La etapa final del procesado de bajo nivel es el
reconocimiento de formas basado en la definición analítica de distancia entre el valor que toman las
propiedades usadas para describir la imagen y los valores correspondientes a esas variables en un
conjunto de patrones.
En el procesado de alto nivel (percepción), nos hace falta recurrir a la inyección de
conocimiento externo del dominio para dar significado a las estructuras de datos y a los procesos
(porque su sentido sólo quede claro para quien posee ese conocimiento y en ningún caso es
evidente a partir de las entidades del nivel simbólico o del nivel físico en el caso del conexionismo).
Ese segundo nivel, de comprensión de imágenes, es responsabilidad de la inteligencia artificial.
Conocemos ya algo sobre los límites de la inteligencia artificial por debajo (en su frontera con la
analítica y la computación numérica). Veamos ahora su frontera con lo humano. Esos límites pueden
encontrarse, al menos, en los siguientes puntos:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
a) Desconocimiento del operador humano.
b) Falta de teoría (principios organizacionales y estructuras).
c) Diferencias fundamentales entre el nivel físico de la computación
semiconductores) y el propio de los seres vivos (tejidos biológicos).
(cristales
No se puede afirmar que la mente es reducible a computación si no se conoce como funcionan
las neuronas biológicas, ni cómo está organizado el cerebro. La metáfora computacional supone que
todos los procesos pueden moldearse mediante dos espacios de representación (el de entradas y el
de salidas), y un conjunto de reglas de transformación que proyectan configuraciones del espacio de
entradas en las configuraciones correspondientes del espacio de salidas.
Por otro lado, la inteligencia artificial de síntesis no tiene por qué depender de la comprensión
de lo vivo. Es decir, una forma alternativa y eficiente de extender los límites de la inteligencia artificial
es desarrollarla como ciencia y tecnología de lo artificial, sin referencia directa con la biología.
Entonces deben resolverse, al menos, las siguientes cuestiones:
1. Modelado y representación de tipos de inferencia y de entidades y relaciones propias del
dominio usando lenguajes más próximos al lenguaje natural (con su robustez, flexibilidad y
capacidad representacional).
2. Búsqueda de nuevos principios de autoorganización capaces de generar estructuras
simbólicas robustas y de amplio uso a partir de entradas de información más
desorganizadas y fragmentadas.
3. Desarrollo de nuevos lenguajes de programación, tan funcionales como los actuales y,
además, que permitan un cierto nivel de autoprogramación y ayuda a la edición de
conocimiento.
4. Énfasis en las teorías computacionales del aprendizaje tanto simbólico como conexionista o
híbrido.
1.3 Perspectiva histórica de la inteligencia artificial
1.3.1 Etapa neurocibernética
La Inteligencia Artificial comenzó a ser computacional cuando Warren S. McCulloch y Walter
Pitts introducen el primer modelo formal, formado por una función lógica seguida de un retardo y
donde se sustituye la programación por el aprendizaje. Una red de neuronas formales es equivalente
a una máquina de Turing de cinta finita. Si la red es programable, entonces es equivalente a una
máquina universal.
Las ideas básicas de esta época se basan en considerar que los seres vivos y las máquinas
pueden ser comprendidas usando los mismos principio de organización y las mismas herramientas
formales. La aproximación entre ambos debe realizarse a nivel de procesador, de forma que para
estudiar como computa el cerebro, hay que estudiar las neuronas biológicas, modelarlas
formalmente, construir redes y ver como surge el comportamiento a partir de procesos locales de
autoorganización, memoria asociativa y aprendizaje. Tres trabajos fundacionales del movimiento
son:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
- en Conducta, propósito y teleología (de Rosemblueth, Wiener y Bigelow) se introducen tres
conceptos importantes en inteligencia artificial: la realimentación como principio organizacional, la
computación por propósitos y la idea de información como pura forma, separable de la señal física
que la transporta.
- en Un cálculo lógico de las ideas inmanentes en la actividad nerviosa (de Warren S.
McCulloch y Walter Pitts), sobre redes neuronales formales, se inicia la “Teoría Neuronal Del
Conocimiento”; se buscan las redes de procesadores capaces de reconocer, recordar, cooperar,
aprender o autoorganizarse. En esta primera etapa de la inteligencia artificial se busca la solución de
los problemas a nivel físico (donde estructura y función coinciden). Se inicia la teoría modular de
autómatas y se usa la lógica (determinista y probabilística) para representar el conocimiento.
- en La naturaleza de la explicación (de K. Craik) se interpreta la actividad del sistema
nervioso en términos de un conjunto de procesos encaminados a construir una representación
interna del medio (modelo) y usarla para predecir. Craik contribuyó a la moderna inteligencia artificial
con dos aportaciones clave: razonamiento abductivo y espacios de representación.
La inferencia en inteligencia artificial está asociada al uso individual o combinado de tres tipos
de razonamiento:
1. La deducción lógica: Se parte de un conjunto de fórmulas (axiomas o validez general) y
sobre ellas se aplican un conjunto de reglas o procedimientos de demostración que nos
permiten obtener nuevas fórmulas válidas. Permite pasar de lo general a lo particular con
certeza del resultado obtenido. Su punto débil es la necesidad de conocer con precisión el
conjunto de axiomas que define el dominio.
2. La inferencia inductiva: Usa pistas (heurísticas) con el conocimiento del dominio para
pasar de lo particular a lo general. Nunca podemos garantizar la completitud y certeza de la
inferencia en este caso.
3. En el razonamiento abductivo: Trata situaciones en las que se conoce una relación causa
efecto y un suceso, y, se debe lanzar una hipótesis sobre su causa más probable. (como en
los diagnósticos médicos).
Según Craik: “Nuestra pregunta no es qué es implicación o causalidad, sino cuál es la
estructura y los procesos necesarios para que un sistema mecánico sea capaz de imitarlos
correctamente y predecir sucesos del mundo externo, a la vez que crear nuevas entidades”. El
segundo punto de la obra de Craik es la propuesta de un mecanismo de razonamiento por analogía
en el modelo del medio donde la implicación formal es el equivalente a la causalidad en el mundo
físico. Distinguía Craik tres procesos:
A. Traslación de los procesos externos a símbolos en un espacio de representación.
B. Obtención de otros símbolos mediante inferencia en el modelo del medio que paraleliza la
causalidad externa.
C. Retraslación de esos símbolos transformados al dominio de sus referentes externos
(predicción).
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La característica fundamental de un Sistema Basado en el Conocimiento (SBC) es su poder
para modelar sucesos basados en dos tipos de símbolos: números y palabras. La propuesta de
Craik es que la codificación de estos símbolos no es arbitraria, sino que mantiene su identidad desde
la entrada sensorial a la salida motora. La Inteligencia Artificial en su primera etapa neurocibernética
aborda los siguientes temas:
Redes de neuronas formales.
Algoritmos de análisis y síntesis.
Aprendizaje por ajuste de parámetros.
Tolerancia a fallos.
Modelos de memoria asociativa.
Reconocimiento de caracteres.
Aprendizaje asociativo y por refuerzo.
Desarrollos en Teoría Modular de Autómatas.
Codificación y Teoría de la Información.
Principios Organizacionales:
Autoprogramación.
Autorreproducción.
Programas programadores.
Traducción automática.
Comprensión del Lenguaje Natural
1.3.2 computación: de Platón a Turing
Dreyfus sugiere que la inteligencia artificial comenzó alrededor del año 450 a. C. cuando, de
acuerdo con Platón, Sócrates pregunta a Euthyphro por un conjunto de reglas de decisión definidas
de forma tan precisa que en cada momento pudiéramos calcular la respuesta del sistema aplicando
esas reglas a la entrada.
Hobbes (1.588-1679) afirma que el pensamiento (razocinio) consiste en ejecutar operaciones
simbólicas siguiendo de forma metódica un conjunto de reglas de decisión.
Descartes (1.566-1650) descubre el carácter invariante de la matemática para representar el
conocimiento. Intenta formalizar el razonamiento usando tres procesos: enumeración, deducción e
intuición, siendo este último el más difícil de mecanizar.
Leibniz (1.646-1716) introduce el concepto de programa y de programación.
Boole (1815-1860) introduce el modelo lógico haciendo énfasis en la separación de símbolos y
números y en la posibilidad de usar los primeros como objetos de cálculo.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Un aspecto importante de los desarrollos en Inteligencia Artificial es el de intentar mantener las
ventajas del modelo lógico y disminuir los inconvenientes que supone su carácter binario e invariante
de sus valores. La lógica borrosa, la probabilística y las extensiones del razonamiento no monótono
y temporal son muestra de ello.
Con von Neumann se avanza en arquitectura de computadores, teoría modular de autómatas
y redes neuronales y teoría del cerebro. Su contribución a la teoría de autómatas y a la inteligencia
artificial conexionista no fue sólo a nivel formal, sino que planteó cuestiones fundamentales como
son:
Reformulando la máquina de Turing en términos de autómatas celulares
Autoprogramación (autómatas que diseñan otros autómatas)
Autoreproducción y evolución (constructores universales que se reproducen)
Tolerancia a fallos y establildad lógica ante cambios de función local
Finalmente, llegamos a Turing y sus dos contribuciones básicas:
A. Un Modelo Computacional Universal (la máquina de Turing)
B. Un Procedimiento Experimental de Medir la Inteligencia Artificial de un Programa (test de
Turing)
La Máquina de Turing es una máquina matemática, todo proceso que se describe de forma
clara, completa, precisa e inequívoca en lenguaje natural puede representarse mediante un
autómata. A partir de esta representación se puede encontrar una secuencia de instrucciones que al
operar sobre símbolos codificados genera un programa ejecutable en cualquier computador. Desde
este punto de vista todas las arquitecturas son equivalentes, y sus diferencias son los factores de
complejidad, tamaño, tiempo, eficacia o recursos.
El test de Turing parte de un operador humano, un programa de ordenador y un interrogador
que realiza un conjunto de preguntas, y compara las respuestas de ambos. Si de la comparación de
las respuestas el observador no es capaz de distinguir que información corresponde al operador
humano y cual al programa de Inteligencia Artificial, se dice que para esa tarea en ese dominio se
supone el mismo nivel de inteligencia a ambos operadores.
Moov, modificó el esquema en términos de acumulación de evidencia inductiva, a partir de una
serie de críticas, la más fuerte es sobre el carácter conductista del test de Turing. La contestación
adecuada a esta crítica es la de considerar el test más que una medida de inteligencia como un
procedimiento de recoger y acumular evidencias inductivas acerca de la eficacia del programa para
resolver un problema.
Esta interpretación inductiva elimina parcialmente la crítica de Searle sobre la diferencia entre
el conocimiento superficial (diccionario) y el profundo. Este segundo caso supone que el agente
debe comprender el significado del mensaje a nivel semántico generando otro mensaje en otro
lenguaje, con el mismo significado, sin referencia a la sintaxis del mensaje de partida.
El segundo tipo de crítica hace referencia a la falta de severidad del test. Imitar no es muy
complicado y la eficiencia en tareas formales y técnicas para dominios estrechos y modelables no
justifica el carácter cognoscitivo (humano) de la computación en Inteligencia Artificial. Toda la
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
información está estructurada, todo el proceso está programado y hay poco lugar para el
aprendizaje.
La capacidad de aprendizaje de un programa es la siguiente medida importante para evaluar el
nivel de Inteligencia Artificial.
1.3.3 búsqueda heurística y dominios formales
El primer trabajo fue el programa Logic Theorist que da origen a toda la rama del razonamiento
automático que persiste en la inteligencia artificial, reforzado por el principio de resolución de
Robinson y sus refinamientos posteriores, incluyendo la creación del lenguaje Prolog.
Comienza la preocupación por lenguajes para procesar información más orientados al manejo
de símbolos que al cálculo numérico, iniciándose el camino hacia el Lisp.
Otro trabajo representativo es el programa GPS (Solucionador General de Programas) con un
intento de dotarlo de capacidad de aprendizaje y autoorganización; es un programa que incorpora
medios heurísticos para resolver problemas seleccionando una secuencia de operadores que haga
disminuir la diferencia entre el estado inicial y el estado meta hasta anularla.
Todos los trabajos de esta primera época se centraron en problemas propios de dominios
formales, demostración de teoremas, estrategias heurísticas y problemas de juegos, planificación de
acciones, etc. En todos los casos la Inteligencia Artificial se entiende como búsqueda en un espacio
de estados sin conocimiento del dominio, haciendo énfasis en los métodos de control de la
búsqueda. Actualmente se intenta recuperar las propuestas iniciales del GPS, el propósito es
separar los aspectos estructurales comunes al procedimiento de solución de una clase general de
problemas, del conocimiento específico de una tarea particular.
A mediados de los sesenta aparecen cambios en la orientación de la Inteligencia Artificial
dando cada vez más importancia al conocimiento del dominio y por consiguiente a los problemas
asociados a su representación y posterior uso en inferencia, donde se separan conocimiento y uso
del mismo.
En esta época se inician los estudios del lenguaje natural, limitando sus dominios, para
conseguir un modelo completo de las estructuras y procesos de ese dominio. Aparece la llamada
“falacia del primer paso” (Dreyfus) ya que aunque se suponía que todos los programas eran un
primer paso para la comprensión del lenguaje natural, nunca llegó el segundo paso, que lo hizo vía
los sistemas basados en el conocimiento.
McCarthy realizó un trabajo sobre programas con sentido común, donde afirmaba: “podemos
decir que un programa tiene sentido común si deduce de forma automática y por si mismo una clase
suficientemente amplia de consecuencias inmediatas de cualquier cosa que se le dice y él ya
conoce.
1.3.4 Énfasis en el conocimiento (197x-198x)
La complejidad de los problemas que aborda la Inteligencia Artificial aconseja combinar todas
las técnicas de representación, integrando el simbolismo con las redes neuronales. La segunda idea
que caracteriza esta segunda etapa de la Inteligencia Artificial es que no basta con el énfasis del
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
conocimiento sino que además la Inteligencia Artificial de síntesis (ingeniería) debe centrarse en
tareas científico - técnicas en dominios estrechos donde se pueda abarcar el conocimiento de forma
completa y sin influencia del sentido común. Se habla así de motivación inteligente, clasificación
basada en el conocimiento, consejeros de terapia médica, sistemas de supervisión y detección de
alarmas, etc.
El nacimiento de los Sistemas Basados en el Conocimiento y los Sistemas Expertos ocurre en
una época dominada por dos preocupaciones:
(a) Énfasis en la representación computacional del conocimiento para tareas del mundo real. El
conocimiento específico del dominio es poder.
(b) Selección de tareas técnicas en dominios estrechos (Sistemas Expertos), donde se separa
el conocimiento de sus mecanismos de aplicación (inferencia).
1.3.4.1 representación del conocimiento
El problema de la representación del conocimiento sigue abierto tanto en la Inteligencia
Artificial teórica, (¿qué es?, relación entre el conocer y la estructura de lo que se conoce) como en la
Inteligencia Artificial de síntesis (¿qué representación es mejor?, ¿cuál permite un uso eficiente del
conocimiento?, ¿cómo abordar la semántica?, ¿cómo profundizar el razonamiento?). La conclusión
de esta etapa es una propuesta de representación modular e híbrida que incluye aspectos de los
cuatro procedimiento básicos: lógica, reglas, redes asociativas y marcos (objetos estructurados).
En esta época se considera al conocimiento como ‘algo’ transportable desde la cabeza del
experto humano a la memoria del computador. La visión actual considera el problema de la
representación formal del conocimiento como un proceso de modelado o de reconstrucción de lo que
se supone que sabe el experto humano, estructurado en varios niveles.
El uso de la lógica para representar el conocimiento tiene como ventajas la semántica,
expresividad y la eficacia de sus procesos deductivos. Sus inconvenientes provienen de la falta de
estructuración del problema de la completitud y de la existencia de problemas en los que la
conclusión se obtiene por defecto, sin garantizar que los resultados son ciertos. Esta ruptura de la
monotonía (suposición usual en lógica) ha dado origen a la búsqueda de nuevos formalismos para el
razonamiento no monótono, que junto al aproximado, el temporal y el cualitativo han dado lugar la
estado actual de las investigaciones.
Para intentar solucionar el problema de la ineficiencia de las representaciones lógicas surgen
las representaciones basadas en reglas, sacrificando expresividad por eficiencia. Estos sistemas
aportan un nuevo paradigma de programación.
Parten de la idea de que todo el conocimiento relevante para realizar una tarea puede
representarse mediante un conjunto de condicionales. El resultado de aplicar la regla produce
nuevos hechos y activa otras reglas, de forma que el razonamiento está asociado a ese
encadenamiento de reglas.
Las redes semánticas (Ros Quillian) son un modelo de memoria asociativa adecuado para la
representación computacional del conocimiento necesario para la comprensión y traducción del
lenguaje natural. Selts (1.922) en su teoría de la anticipación esquemática propuso una organización
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
relacional del conocimiento en términos de redes de conceptos (nodos) enlazados por relaciones
(arcos) y con herencia de propiedades. Quillian retomó esta línea; la base de conocimientos en una
gran red de nodos (significado de palabras) interconectadas por diferentes tipos de arcos
asociativos. Las redes asociativas engloban a las redes semánticas, siendo estas últimas un caso
particular que hace referencia a su origen, como forma de representar el significado (semántica) de
las palabras en lenguajes naturales.
Las tres características que distinguen los distintos tipos de redes son:
(I)
(II)
(III)
• Tipo de conocimiento representado.
• Método de inferencia.
• Forma de abordar el problema del aprendizaje.
Los marcos (Minsky) como forma de representación del conocimiento suponen que el sistema
nervioso organiza su experiencia perceptiva y su memoria en términos de un conjunto de esquemas
que describen de forma estructurada nuestro conocimiento sobre un conjunto de situaciones reales,
de forma que al usarlos para razonar se acepta gran cantidad de conocimiento implícito con el que
se rellenan los campos que quedan sin especificar.
Una característica importante de los marcos es su ordenación jerárquica, los marcos-nodo
inferiores no sólo heredan las propiedades de sus superiores sino que pueden heredar también
valores y métodos asociados a estas propiedades.
Los guiones y planes son análogos a los marcos, sólo que hacen referencia a estructuras que
describen secuencias temporales de sucesos. El ser humano organiza su conocimiento en términos
de millones de marcos, guiones y planos que usa constantemente en todas sus tareas(Schank,
Minsky).
Los avances desde 1.980 hasta nuestros días se resumen en los siguientes puntos:
Mayor rigor en los desarrollos teóricos.
Énfasis en las representaciones declarativas frente a las procedimentales.
Intento de formalización e integración de los distintos tipos de razonamiento. Se camina
hacia una teoría unificada del conocimiento.
Renacimiento del conexionismo y surgimiento de las redes bayesianas.
Manejo de grandes bases de conocimiento, lo que exige el desarrollo de métodos
automáticos de adquisición y actualización (aprendizaje).
1.3.4.2 sistemas basados en el conocimiento (SBC) y sistemas expertos (SE)
Cuando en un sistema se hace uso intensivo del conocimento del dominio y se separa de los
mecanismos que controlan su uso en inferencia, decimos que tenemos un SBC. Dentro de un SBC
hay un grupo de sistemas en los que el conocimiento procede de un experto humano especialista en
una tarea concreta y un dominio técnico; decimos entonces que tenemos un SE. El desarrollo de los
métodos básicos de representación del conocimiento ha caminado paralelo al desarrollo de los
sistemas expertos. Cada forma de representación está asociada históricamente al primer sistema
que la usó. Las características fundamentales de un SE son:
Dominio reducido
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Competencia en su campo
Separación conocimiento/inferencia
Capacidad de explicación
Flexibilidad en el diálogo
Tratamiento de la incertidumbre
En la primera época los módulos básicos de un S.E. eran la base de hechos ciertos, la base
de conocimientos, el mecanismo de inferencia, una base de datos convencional y un módulo
de explicación y diálogo (esquema que corresponde a un sistema basado en reglas). Si la
representación del conocimiento se hace usando marcos o redes semánticas, la estructura no se
corresponde claramente con estos módulos. Una conclusión importante de esta etapa de la
Inteligencia Artificial es que los sistemas basados en reglas constituyen un procedimiento efectivo de
representación y uso del conocimiento distinto de la programación convencional. La computación se
realiza identificando y aplicando la regla adecuada a un hecho. Después, se estudia si como
consecuencia de la aplicación, se ha resuelto el problema, y en caso contrario, buscar una nueva
regla cuyo campo de condición se adapta al campo de acción de la anterior. Como consecuencia se
altera el contenido de la memoria dinámica del sistema. Esta forma de programar supone dos
cambios esenciales:
• Todo conocimiento debe representarse de forma modular y declarativa.
• En el modelado se debe cuidar el contenido asignado a los campos de condición y acción de
cada regla porque ahí se construye el conocimiento que guiará el encadenamiento de las
reglas.
En mitad de los sesenta, los resultados de los trabajos de Stanford mostraron las
características básicas en todos los SE:
1. Selección de un dominio limitado del conocimiento científico-técnico (el programa alcanza
niveles de competencia a los del experto humano)
2. Evidencia de que el conocimiento esencial no es de carácter general sino específico del
dominio.
3. Separación entre el conocimiento y el mecanismo de aplicación de ese conocimiento
(inferencia) con la posibilidad de ampliar o modificar el conocimiento que posee el sistema,
sin tener que modificar los mecanismos de inferencia.
4. Validez de las reglas como forma de representación del conocimiento, sin necesidad de
modelar el proceso de pensamiento del experto humano.
Y a partir de otro trabajo:
5. Validez del razonamiento por encadenamiento de reglas.
6. Tratamiento del problema de la incertidumbre mediante mecanismos sencillos y eficientes
que combinan distintos factores de certeza.
7. Capacidad de explicación del razonamiento seguido para alcanzar la meta que propone.
8. Mención de conceptos que se consolidaron más tarde, tales como la metarreglas (reglas
que explican como utilizar otras reglas) y la adquisición de conocimiento como tarea
genérica en inteligencia artificial. Las metarreglas se introducen con tres fines: construir la
base de conocimientos mediante un diálogo con el experto humano, guiar el razonamiento
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
mediante objetivos explícitos y mejorar la capacidad de explicación a partir de dichos
objetivos.
En la actualidad las tendencias en el campo de los SE son:
Desarrollos de SE con una metodología razonablemente establecida, usando entornos
comerciales y aceptando los métodos usuales de representación e inferencia.
Desarrollos teóricos en temas frontera relacionados con la extensión de los métodos de
representación y razonamiento.
Énfasis en el aprendizaje y renacimiento del conexionismo.
1.3.5 aprendizaje y renacimiento del conexionismo
1.3.5.1 aprendizaje
La idea más general de aprendizaje es la acumulación de conocimiento. Por consiguiente, un
programa aprende cuando es capaz de acumular conocimiento sobre una tarea. Bajo el nombre de
aprendizaje, se engloban procesos muy diversos que podemos clasificar en términos de la tarea
genérica a la que se refiere y del mecanismo de razonamiento en el que se basa. Hay tres familias
de tareas:
1. Tareas perceptivas:
Incluye aspectos tales como el reconocimiento de caracteres y la formación de conceptos
(selección de características para describir los objetos de entrada, creación de un lenguaje de
descripción de conceptos y representación simbólica de todo el conocimiento previo).
2. Tareas de planificación:
Incluye los aspectos complementarios de la percepción. Ahora en vez de clasificar, se parte
de conceptos centrales en un modelo del medio y se programa un generador de acciones
elementales.
3. Tareas de organización central:
Incluye aspectos tales como la adquisición automática de nuevo conocimiento declarativo y
su integración en una organización interna.
Si consideramos ahora el aprendizaje como el cambio en los mecanismos de razonamiento,
hay tres paradigmas básicos:
1. El aprendizaje inductivo:
En él, los cambios en las estructuras de datos y en los algoritmos van encaminados a la
generalización del conocimiento extraible de los ejemplos usados en el entrenamiento. Ese
proceso está guiado por criterios heurísticos. Si se dispone de mucho conocimiento del dominio
no es necesario mucho entrenamiento, se tiene una estrategia de aprendizaje basado en casos
(CBL).
2. El aprendizaje deductivo:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Está asociado a situaciones en las que se dispone de un conocimiento general bastante
completo y unas reglas de inferencia para obtener casos bajo la ley y explicar el proceso
deductivo. Al tener que encontrar teorías completas se debe complementar con otras
estrategias inductivas o abductivas.
3. El aprendizaje abductivo:
Busca un procedimiento para proponer y seleccionar las hipótesis que mejor expliquen las
conclusiones conocidas.
El estado actual del aprendizaje computacional está marcado por dos tendencias
complementarias:
Desarrollo de sistemas multiestrategia, basados en la comprensión de las funcionalidades y
las condiciones de aplicación de las distintas estrategias individuales y en la cooperación de
estas en función del tipo de problema.
Desarrollos teóricos y metodológicos distinguiendo entre las funcionalidades en el dominio
propio y en el del observador y proponiendo un nivel de procesos comunes en términos de
los que las distintas estrategias son equivalentes.
1.3.5.2 conexionismo
El salto cualitativo en la perspectiva conexionista de la inteligencia artificial aparece al
comienzo de los años 80 con las propuestas de Rumlhart y colaboradores [1986] y Barto [1983]. En
la inteligencia artificial conexionista se está intentando resolver los mismos problemas que han
preocupado a la inteligencia artificial simbólica. El contenido en extenso de la inteligencia artificial
conexionista aborda los siguientes temas:
1. Conexiones con la neurociencia.
2. Modelos de computación distribuida y autoprogramable.
3. Búsqueda de arquitecturas multicapa e incrementales y genéticas que faciliten la
cooperación y la autoorganización.
4. Estudio del aprendizaje supervisado y no supervisado y su conexión con el aprendizaje
simbólico.
5. Desarrollo de neurosimuladores (entornos de programación, evaluación y desarrollo de
redes neuronales a nivel software).
6. Implementación de redes como arquitecturas paralelas
(preprocesadores, coprocesadores o neuro-circuitos completos).
de
propósito
especial
7. Un gran capítulo de aplicaciones, en percepción y control, y problemas genéricos de
clasificación en tiempo real.
Como conclusión decir que ambas perspectivas (simbólica y conexionista) han reconocido sus
limitaciones y han decidido cooperar buscando formulaciones híbridas de tareas genéricas y
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
soluciones cooperativas que usan ambos métodos tomando de cada uno lo más adecuado para la
solución del problema.
2. ASPECTOS METODOLÓGICOS EN LA INTELIGENCIA ARTIFICIAL
2.1 Niveles de computación.
Cuando nos enfrentamos a un sistema complejo, tanto en tareas de análisis como de síntesis,
es útil usar una jerarquía de niveles, que nos permitan segmentar esa complejidad.
Cada nivel de descripción, está caracterizado por una fenomenología, un conjunto de entidades
y relaciones y unos principios organizativos y estructurales propios. (Por ejemplo, en biología, se
puede pasar del nivel protoplásmico <subcelular con procesos físicoquímicos>, al celular
<bioquímico-eléctrico>, al orgánico y al de comportamiento global <animal y humano>).
Es un error frecuente en IA, el mezclar entidades pertenecientes a niveles distintos, e intentar
explicar datos y procesos de un nivel de alta semántica, como el nivel de conocimiento, a partir de
estructuras de datos y operadores lógicos propios de niveles inferiores, tales como la electrónica
digital o la teoría de autómatas.
Cada nivel enlaza con el inferior mediante un proceso de reducción de acuerdo con unas
leyes (programas traductores, intérpretes, compiladores), y con el superior mediante procesos de
emergencia, que necesitan la inyección de conocimiento por parte de un observador externo. Por
ejemplo: del conocimiento detallado del comportamiento de los inversores y biestables, no se
deduce el algoritmo ni las estructuras de datos del programa que está corriendo. Análogamente, no
se deduce el funcionamiento de los biestables conociendo el algoritmo utilizado. Hay varios
algoritmos posibles para una misma computación y hay múltiples implementaciones posibles para un
algoritmo.
La teoría de niveles en la computación fue introducida por D. Marr y A. Newell, previamente
Chomsky introdujo los conceptos de competencia y ejecución para distinguir los lenguajes naturales
de los sistemas arbitrarios y formales de manipulación de símbolos.
Todo nivel de computación admite una representación general en términos de un espacio de
entradas, un espacio de salidas y un conjunto de reglas de transformación que enlazan las
representaciones en ambos espacios de representación. El espacio de entradas en un espacio
multidimensional de las características del proceso que se consideran relevante. El espacio de
salidas también es multidimensional, en el que se seleccionan los resultados de la computación en
función del tiempo, las entradas y reglas de transformación del proceso de este nivel. La
computación de un nivel se completa con las descripciones de las transformaciones que producen
nuevos valores en el espacio de salidas a partir de la secuencia de valores previos en ambos
sentidos.
Los tres niveles de computación que propone Marr comienzan a tener una clara comprensión
de lo que se debe calcular y como se debe hacer. No basta pues, el conocimiento de la computación
a nivel de procesador, ni el nivel de algoritmos y estructura de datos, debe existir un nivel adicional
de comprensión que analice y comprenda los mecanismos y estructuras particulares que se
implementan en nuestros cerebros. Sustituyendo cerebro por computador se tiene cómo analizar o
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
sintetizar una tarea computacional. Veamos los tres niveles de computación, tal como los propuso
David Marr en 1982:
1. En el primer nivel tenemos los fundamentos teóricos de la computación, el planteamiento
del problema en lenguaje natural y un posible esquema de solución en términos del
conocimiento del dominio.
2. El segundo nivel de análisis o síntesis de un proceso es la elección de un lenguaje de
representación para los espacios de entrada y salida y de un algoritmo que haga efectivas
las transformaciones que enlazan esas representaciones.
3. El tercer nivel tiene que ver con todo el proceso de implementación que nos lleva del
algoritmo a los procesadores físicos. Incluye la selección de un lenguaje de programación y
la construcción del programa.
Para una tarea concreta, los tres niveles de descripción están relacionados. Cuando se baja de
nivel siempre se pierde información, ya que no hay una representación única de ese nivel. La
hipótesis fuerte de la Inteligencia Artificial es que a pesar de estas pérdidas de semántica es posible
hacer computacional la inteligencia humana.
2.2 El Nivel de Conocimiento de Allen Newell.
Newell introdujo en 1981 el nivel de conocimiento como un nuevo nivel de descripción por
encima del nivel simbólico. La clave del nivel es su carácter abstracto, genérico e independiente
tanto del dominio como de los lenguajes usados para representar el conocimiento (marcos, reglas,
lógica o redes) y para usarlo (inducción, deducción o abducción).
Pylyshyn ha asociado el nivel de conocimiento al cálculo intencional y Clancey señaló el
carácter relativista de las descripciones en el nivel de conocimiento.
Una computación intencional (a nivel de conocimiento) es invariante ante cambios en la
representación a nivel simbólico, de la misma forma que una computación a nivel simbólico es
invariante ante cambios en el nivel de implementación.. En el trabajo de Newell se plantean tres
objetivos:
1. Razonar acerca de la naturaleza del conocimiento. El esfuerzo de Newell se centra en
distinguir el conocimiento de sus posibles representaciones, y dotar al primero de entidad
propia.
2. Proponer la existencia de un nivel específico del conocimiento cuyas entidades básicas son
las creencias, objetivos, planes e intenciones y el principio de racionalidad, que conecta
causalmente las intenciones con las acciones.
3. La descripción de este nivel y sus conexiones con los niveles inferiores (simbólico y de
implementación).
Así, Newell propone un nuevo nivel (el nivel de conocimiento) situado sobre el nivel simbólico
y caracterizado por el conocimiento como medio y el principio de racionalidad como ley general de
comportamiento.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Para poner este nivel en relación con los otros (simbólico y de implementación) se introducen
cinco aspectos para caracterizar los niveles: sistema, medio, componentes, leyes de composición y
leyes de comportamiento.
SISTEMA
NIVEL de
Agente
CONOCIMIEN
Inteligente
TO
NIVEL
SIMBOLICO
Visión del
programador
de ordenador
NIVEL DE
IMPLEMEN
TACIÓN
E. Digital +
Arquitectura
de
Computadore
s
LEYES DE
COMPONEN
OPERADORES COMPORTA
TES
MIENTO
Metas
Los usados por
Principio de
Conocimiento Acciones
el lenguaje
racionalidad.
Intenciones
natural
Operadores y
Símbolos y
memorias
Designación
Interpretació
expresiones
(Primitivas
Asociación
n fija
del lenguaje)
Vectores
Registros
Booleanos y ALU’s
Algebra de
Teoría de
Estados
Decodificador
Boole
Autómatas
lógicos de
es de
puertas
Instrucciones
MEDIO
El principio de racionalidad o principio de causalidad semántica dice:
• Si un agente conoce que una de sus acciones conducirá a sus metas, entonces
seleccionará esta acción.
• Conocimiento es cualquier cosa que se pueda adscribir a un agente de forma que su
conducta se puede calcular usando el principio de racionalidad.
Desde la perspectiva de la Inteligencia Artificial aplicada, el problema es encontrar un
procedimiento para reducir el nivel de conocimiento al nivel simbólico. Es decir, pasar de las
descripciones en lenguaje natural a un lenguaje accesible al nivel simbólico, donde el principio de
racionalidad, las metas, las creencias y las acciones se proyectan en estructuras de datos y
algoritmos. Para facilitar el proceso de reducción se están buscando entidades de nivel intermedio
como la teoría de agentes cooperativos (descomposición, segmentación y especialización), las
estructura de las tareas genéricas y la metodología KADS entre otras.
2.3 El agente observador y los dos dominios de descripción.
La introducción de la figura del observador proviene de la física, al reconocer la existencia del
mismo en la computación se introduce la idea de distintos sistemas de referencia. Las descripciones
de las observaciones de una computación a nivel físico o simbólico deben de hacerse en dos
sistemas de referencia, uno para cada nivel. Al dominio que los engloba se le denomina dominio
propio (DP) o autocontenido. El otro dominio es el dominio del observador (DO) que usa el lenguaje
natural para describir y dotar el significado de los procesos del dominio propio. En las descripciones
de dominio propio todo lo que ocurre el causal, y las relaciones son de necesidad, es decir, lo que
ocurre es porque la estructura y función coinciden y las conexiones entre las magnitudes siguen sus
leyes propias.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Por otro lado, el observador siempre actúa a nivel de conocimiento. Su lenguaje es el lenguaje
natural y su función de diseño e interpretación de la computación (niveles físico y simbólico) está
caracterizada por su modelo del conocimiento, por las limitaciones de los otros dos niveles y por la
inyección de conocimiento necesaria para recuperar en la interpretación todo lo que se perdió en el
proceso de reducción de niveles. En el DO siempre hay más conocimiento del que se puede deducir
de la sola consideración del contenido de los otros dos niveles.
Cuando la computación es realizada por un ordenador a través de un programa, el problema
está en mezclar entidades y relaciones de DP con otras del sistema operativo (con las que no tienen
ninguna relación causal). El problema importante en inteligencia artificial aparece cuando se mezclan
las tablas de semántica de ambos dominios y se pretende dar significados de entidades propias del
nivel de conocimiento en DO a las entidades de los otros dos niveles (DP).
En el DP se pueden distinguir tres capas. La más profunda está relacionada con la estructura
de tareas genéricas y con la arquitectura global del sistema e incluye el conocimiento estratégico. En
la capa intermedia se encuentran las herramientas y los métodos (conjunto de formalismos de
representación y mecanismos de inferencia). La tercera capa, la más externa en el DO, incluye la
arquitectura global de la tarea, los aspectos organizativos del modelo, los mecanismos de
adquisición del conocimiento del dominio, la segmentación en distintos agentes cooperantes y la
asignación de tareas a esos agentes y, finalmente, la construcción de las tablas de semántica que se
volverán a usar en la interpretación del nivel simbólico.
2.4 Estructura de Tareas Genéricas para Modelar Conocimiento en el DO.
Para facilitar el proceso de adquisición de conocimiento y su posterior reducción al nivel
simbólico (inferencia y representación) se han intentado desarrollar métodos abstractos de modelar
conocimiento en términos de un conjunto de tareas genéricas (TG) y métodos (M) para
desarrollarlas. Al ser estas TG de validez general nos permiten modelar el conocimiento de forma
análoga a como lo hace la teoría de sistemas continuos. En cada caso, los métodos, las formas de
representar el conocimiento y los mecanismos de inferencia variarán, pero la organización de la
tarea permanece. Su esquema conceptual es el mismo.
Así, las tareas genéricas son bloques funcionales que participan en la solución de una familia
amplia de problemas. En un sistema de control las TG son: comparación, amplificación, actuación y
medida y la estructura de TG es la realimentación negativa. En inteligencia artificial veremos que las
tareas genéricas son la clasificación jerárquica y heurística, el diagnóstico, la monitorización, el
diseño, etc, y los métodos son heurísticos.
En el análisis modelamos un segmento del razonamiento humano especificando lo que debe
hacer el sistema. En síntesis, proponemos una solución estructurada diciendo cómo debe resolverse
el problema usando un conjunto muy limitado de módulos genéricos (TG) cada uno de los cuales se
concentra en un aspecto particular del proceso de solución.
2.4.1 La clasificación como Tarea Genérica.
Muchos de los programas de inteligencia artificial, están basados en la estructura genérica de
un clasificador que asocia configuraciones de entrada a configuraciones de salida. Las entradas son
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
datos mientras que las salidas son configuraciones que representan decisiones, posibles fallos del
sistema o conceptos seleccionados. Ambos espacios deben estar especificados en extenso y de
forma completa porque la clasificación ordena las categorías de salida y/o selecciona una de ellas.
Los métodos usados dependen del tipo de clasificación. Así, en la clasificación jerárquica el método
suele ser establecer y refinar. En la clasificación heurística, el método es la comparación a nivel
abstracto y en la clasificación conexionista, el método es el ajuste de parámetros mediante la
minimización de una función de coste.
Clancey introdujo la clasificación heurística como tarea genérica subyacente a muchos
sistemas expertos y sugirió su descomposición en tres subtareas:
(1) La abstracción de los datos permite separar el valor numérico de una variable del módulo
de conocimiento asociado de forma implícita. Por ejemplo que un valor de temperatura es
alto.
(2) La equiparación heurística permite de nuevo buscar asociaciones entre tipos generales de
síntomas y tipos de patologías. Así, la alta temperatura indica fiebre y está asociada a
infección.
(3) El refinamiento está asociado al resto del conocimiento necesario para especificar el
diagnóstico.
La clasificación conexionista usa en general el conocimiento del problema para definir en una
estructura con cuatro tareas genéricas, distribuidas por capas:
(1) Extracción de propiedades: comienza con la construcción de un espacio de características
(analíticas, algorítmicas o puramente simbólicas) con una parte fija y otra autoprogramable
por aprendizaje.
(2) Métricas: incorpora las métricas asociadas a las clases de equivalencia (calcular la
proximidad de cada punto del espacio de características a cada una de las clases).
(3) Selección de máximos: es la selección de la clase a la que la distancia es mínima o el
cálculo de la función de pertenencia de ese punto del espacio de medida a las distintas
clases en las formulaciones borrosas.
(4) Refuerzo: es la última TG del clasificador y es el aprendizaje.
2.4.2 La Metodología KADS.
La metodología KADS para el desarrollo de sistemas basados en el conocimiento se apoya en
el nivel de las tareas genéricas y en la distinción de cuatro capas: estrategia, tareas, inferencia y
conocimiento estático del dominio, para modelar el conocimiento. El proceso comienza con el
análisis a nivel global, que permite una descomposición del problema en tres módulos: el módulo
basado en el conocimiento, la interfaz y el resto de la aplicación. La siguiente etapa modela la
inferencia, está relacionada con las técnicas de representación del conocimiento estático.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La tercera etapa contiene la estructura de tarea genérica. La capa más externa se usa para
modelar los aspectos estratégicos del conocimiento.
El uso de una estructura de tarea genérica para modelar conocimiento tiene la ventaja de ser
modular, planteando la existencia de primitivas de computación, a partir de las cuales se puede
modelar y sintetizar el conocimiento.
2.5 IA simbólico VERSUS IA conexionista
Hay que poner de manifiesto su complementariedad y su significado en la teoría de los dos
dominios (DP y DO). La inteligencia artificial que nació conexionista, fue después dominantemente
simbólica y tras el renacimiento de la computación neuronal hemos llegado a una etapa de
cooperación alternativa entre ambos, dependiendo de la naturaleza del problema, como dos técnicas
complementarias y en algunos casos simbióticas.
El simbolismo nace en el dominio del observador durante el proceso de reducción del nivel de
conocimiento al nivel simbólico y en el proceso inverso de interpretación. Cuando la reducción se
hace a través del nivel simbólico, terminando en las primitivas de un lenguaje, la inteligencia artificial
es simbólica. En cambio, cuando la reducción se hace directamente del nivel de conocimiento a la
red de procesadores la inteligencia artificial es conexionista.
Una primera distinción entre IA simbólica e IA conexionista está en el salto directo que las
redes neuronales dan desde la formulación del problema a nivel de conocimiento hasta el nivel
físico, lo que supone un análisis pormenorizado de la aplicación. Como alternativa a este paso
directo, la IA simbólica utiliza un conjunto de entornos y lenguajes de alto nivel que facilitan la
reducción al nivel simbólico de un modelo de conocimiento.
Otra distinción importante entre inteligencia artificial simbólica y conexionista es la riqueza de
tareas genéricas y tipos de inferencia que ofrece la primera, frente a las limitaciones de una
arquitectura por capas que siempre realiza una función de clasificación.
NIVEL 3: Implementación en un soporte físico del nivel 2 (entornos software y nivel hardware)
NIVEL 2: Representación y algoritmo. ¿Cómo puede implementarse esta teoría de cálculo?
(Espacios simbólicos de representación de las entradas y salidas y algoritmos que los
enlazan).
NIVEL 1: Teoría computacional de la tarea a nivel genérico incluyendo cuál es el objetivo de la
computación, por qué es apropiado y cuál es la lógica de la estrategia adecuada para
implementarlo.
Una forma de aproximar las redes neuronales a la computación simbólica es aumentar la
capacidad de computación local, superando las limitaciones de un modelo analítico no lineal
mediante el uso de un condicional o de un micro-marco con un campo de inferencia. En estas
condiciones es posible hablar de sistemas expertos conexionistas y redes neuronales basadas en el
conocimiento.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
3. LOS SISTEMAS EXPERTOS
Por último, para terminar esta perspectiva histórica de la inteligencia artificial, comentaremos
las características principales de los sistemas expertos, que son la parte más novedosa de esta
disciplina.
Un sistema experto es un programa de ordenador que codifica un modelo de conocimiento de
un experto humano en un campo reducido. Un Sistema Experto empieza con un modelo conceptual
a nivel de conocimiento y termina en una implementación, tras una etapa de codificación. La
arquitectura de un sistema experto de la primera época es de hecho la de un sistema basado en
reglas. Con el uso de los marcos y las reglas aparecen dudas en la distinción entre conocimiento
estático y dinámico. La introducción de los Sistemas Expertos supuso cambios esenciales en la
Inteligencia Artificial:
(a) Abordar directamente la complejidad del mundo real, con tareas de diagnóstico y
planificación en dominios científico-técnico de extensión limitada.
(b) Aceptar que hay que modelar el conocimiento humano no analítico y hacer énfasis en la
representación de ese conocimiento de forma separada del uso del mismo en inferencia.
(c) Comprobar que, mecanismos sencillos de inferencia tales como el encadenamiento de
reglas, eran capaces de resolver satisfactoriamente problemas complejos en dominios
reales, tales como el diagnóstico médico.
Los pasos necesarios para realizar un Sistema Experto son:
• Ver en qué tareas y escenarios es necesario utilizar Sistemas Expertos.
• Adquirir el conocimiento de los expertos humanos que realizan la tarea.
• Modelar ese conocimiento.
• Usar entornos de desarrollo para obtener prototipos.
• Validar el funcionamiento de los prototipos y evaluarlos, facilitando la posterior actualización
del conocimiento.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Sistema de Adquisición
Automática de conocimiento
Base de
Afirmaciones
Base de
conocimiento
MAC
Módulo de
Explicación
usuario
Módulo de
Aprendizaje
Interfaz de
ENTORNO DE DESARROLLO
Interfaz de
desarrollo
3.1 Estructura básica
Profesional
que
desarrolla
el SE
Usuario
Final
El diagrama hace
referencia
esencialmente a los
sistemas basados en
reglas. En los sistemas
basados en marcos y
en redes no es posible
establecer la distinción
entre
base
de
conocimiento y base
de afirmaciones
Base de datos
La estructura básica de un sistema experto consta de los siguientes elementos:
(1) La base de conocimiento (BC): es estática y contiene la representación modular y
computable de aquellos fragmentos de conocimiento que hemos sido capaces de modelar
y representar a través del diálogo con el experto humano que realiza la tarea para la que
ahora queremos desarrollar un sistema experto. La BC de todo sistema experto estará
compuesta por un conjunto de reglas o marcos o por una combinación de ambos. En
sistemas híbridos (simbólico-conexionistas) la BC puede incluir también una red neuronal.
(2) Los mecanismos de Aplicación del Conocimiento (MAC): dependen de la aplicación y
de la forma de representación del conocimiento. Si el conocimiento se representa sólo con
reglas, la inferencia se realiza seleccionando reglas que se van a ejecutar después. El
encadenamiento puede ser dirigido por datos (hacia delante) o dirigido por hipótesis (hacia
detrás). Si el conocimiento está representado usando marcos, la BC estará organizada en
una jerarquía para las distintas clases de objetos estructurados necesarias en la aplicación.
La inferencia ahora está basada en la herencia directa y por defecto, el enlace dinámico
mediante reglas en ciertos campos de los marcos y otros procesos de control de la
inferencia y de solución de conflictos, tales como las agendas.
(3) La base de afirmaciones o conjunto de hechos ciertos (BA) es dinámica. Es una memoria
de trabajo donde el mecanismo de inferencia (MAC) almacena las conclusiones transitorias
que va obteniendo y donde, a su vez, busca las premisas que le permiten obtener otras
nuevas. El contenido de la BA es distinto para cada consulta que se realiza.
Lo que hacen los hechos ciertos de la BA es activar determinados módulos de
conocimiento en los que podrían estar involucrados, haciéndolos explícitos y produciendo
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
nuevos hechos que, aunque estaban implícitos en la BC, sólo ahora aparecen activos,
como consecuencia de los hechos de entrada.
(4) La interfaz de usuario de la cual depende a menudo la aceptación o el rechazo de un
programa. Debe ser potente, fácil de manejar y de uso agradable. Su especificación
funcional y diseño final están asociados al entorno de desarrollo usado y a las facilidades
de explicación y edición de conocimiento de las que se quiera dotar al sistema.
(5) Se incluye en general una base de datos (BD), en el sentido convencional del término, para
almacenar y recuperar de forma eficiente la información adicional propia de cada aplicación
y no incluida ni en la BA ni en la BC.
Además de estos componentes que se encuentran en todos los Sistemas Expertos, hay tres
elementos más que están incluidos en algunos casos. Son el Módulo de Explicación (ME), el
Módulo de Aprendizaje (MA) y el Módulo de Adquisición de Conocimiento (AC).
Este esquema es utilizado básicamente con reglas; en los sistemas basados en marcos y
redes, existe una separación entre inferencia y conocimiento, pero la información del dominio y las
conclusiones obtenidas se almacenan en los marcos o en los nodos y enlaces de la red, por lo cual
no se puede distinguir entre la Base de Conocimientos y la Base de Afirmaciones.
3.2 Características de un Sistema Experto
Cuando se termina la fase de desarrollo, tenemos efectivamente un programa, junto con la
codificación del conocimiento cuya semántica se ha quedado en el dominio del observador. Como tal
programa posee, al menos, las siguientes características distintivas:
Competencia en su campo: es el significado de experto. Es necesario que pueda resolver
problemas con una eficiencia y calidad comparables a las de un experto humano.
Dominio reducido: ésta es la nota distintiva de los sistemas expertos frente a otros
programas de inteligencia artificial. El limitarse a un dominio reducido es un requisito para
alcanzar la competencia.
Capacidad de explicación: es la capacidad de explicar cómo ha resuelto el problema, es
decir, qué método ha aplicado y por qué lo ha aplicado. Un SE debe ser capaz de explicar
al usuario el proceso de razonamiento empleado. Los resultados en este apartado son
modestos y dependen de los avances en el campo del aprendizaje simbólico.
Tratamiento de la incertidumbre: es una exigencia que se deriva de la complejidad de los
problemas que van a aborda los sistemas expertos.
Flexibilidad en el diálogo: es deseable que los sistemas expertos tengan esta capacidad,
llegando en la medida de lo posible a comunicarse (entender y expresarse) en lenguaje
natural como un experto humano.
Representación explícita del conocimiento: es necesaria para considerar que un sistema
está basado en conocimiento. Todo programa de ordenador se basa en el conocimiento de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
problema a tratar, pero en este caso queremos decir que la finalidad del programa es
representar explícitamente el conocimiento.
3.3 Ventajas y Limitaciones
Podemos afirmar que las ventajas de los sistemas expertos son las siguientes:
Permanencia: los expertos humanos pueden morir, cambiar de empresa o perder
facultades lo que no puede ocurrir con un sistema experto.
Duplicación: el experto humano se encuentra en un único lugar físico y es irreproducible,
mientras que una vez construido un sistema experto, podemos fabricar un número ilimitado
de copias destinadas a todos los lugares donde sean necesarias.
Fiabilidad: un sistema experto responderá siempre de la misma manera ante un cierto
problema, mientras que un experto humano puede estar condicionado por factores
emocionales, prejuicios personales, tensión, fatiga, etc.
Rapidez: El experto humano será rápido en los casos habituales, pero no en los casos más
raros. En cambio el SE será rápido en todos los casos.
Bajo coste: aunque puede resultar caro inicialmente construir un sistema experto, una vez
construido produce grandes beneficios.
En contrapartida los sistemas expertos presentan también grandes carencial frente a los seres
humanos:
Sentido común: para un ordenador no hay nada obvio. Un SE carece de esta
característica. Puede sacar conclusiones absurdas.
Flexibilidad: El experto humano es flexible y puede adaptarse a las nuevas circunstancias,
situaciones inesperadas, buscando nuevas soluciones. Los SE son rígidos.
Lenguaje natural: todavía estamos muy lejos de tener un sistema que pueda formular
preguntas flexibles y mantener una conversación informal con un usuario o con un paciente.
Experiencia sensorial: los sistemas expertos de la actualidad se limitan a recibir
información mediante un teclado y un ratón. Sólo algunos disponen de tratamiento de
imágenes, y es incomparable con la capacidad de visión humana. Lo mismo puede decirse
de la capacidad auditiva, táctil y olfativa.
Perspectiva global: un experto humano es capaz de detectar inmediatamente cuáles son
las cuestiones centrales y cuáles son secundarias (separando los datos relevantes de los
detalles insignificantes).
Además existen estas otras limitaciones:
Falta de capacidad de aprendizaje: los expertos humanos son capaces de aprender de la
experiencia, por caminos que aún no pueden ser modelados.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Capacidad de manejar conocimiento no estructurado: el experto humano organiza y usa
la información y el conocimiento presentados de forma poco ordenada.
Funciones genuinamente humanas: por ejemplo, todo lo relacionado con el lenguaje
natural, la formación de conceptos, el conocimiento de sentido común y la creación queda
fuera de los sistemas expertos, al menos en el estado actual del conocimiento.
Por tanto, y en la actualidad, la idea de sustituir al humano por la máquina es aún irrealizable.
Aunque el objetivo principal no es que la máquina duplique o sustituya al humano sino que colabore
con él.
Bibliografía:
ABELSON, H. y SUSSMAN, G. J.: Structure and Interpretation of Computer Programs. MIT Press
(1985).
BARR, A. y FEIGENBAUM, E. A. (1982): The Handbook of Artificial Intelligence. Vols. I y II. Pitman
Books Limited. CA. El volumen III es de la misma Editorial pero está editado por P. R. COHEN, y E.
A. FEIGENBAUM.
BARR, A.; COHENAND, P. R. y FEIGENBAUM, E. A. (1989): The Handbook of Artificial Intelligence.
Vol. IV. Addison-Wesley.
ESCOLANO, F., CAZORLA, M. A., ALFONSO, M. I., COLOMINA, O. y LOZANO, M. A. (2003):
Inteligencia Artificial: Métodos, Técnicas y Áreas de Aplicación. Editorial Thomson.
GINSBERG, M. (1993): Essentials of Artificial Intelligence. Morgan Kaufmann Publishers.
MIRA, J.; DELGADO, A. E.; BOTICARIO, J. G. y DÍEZ, F. J.: Aspectos Básicos de la Inteligencia
Artificial. Editorial Sanz y Torres, Madrid, 1995.
RICH, E. y KNIGHT, K. (1994): Inteligencia Artificial. 2.a edición. McGraw-Hill Interamericana.
RUSSELL y NORVIG, P. (1995): Inteligencia Artificial: Un enfoque moderno. Prentice-hall
Hispanoamericana S. A.
SHAPIRO, S. C. (1990): Encyclopedia of Artificial Intelligence. Vols. 1 y 2. J. Wiley, 2.a edición.
WINSTON, P. H. (1994): Inteligencia Artificial. 3.a edición. Addison-Wesley Iberoamericana.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
APLICACIÓN DE MODELOS MATEMÁTICOS A LA
AERODINÁMICA DE VEHÍCULOS
AUTOR: AITANA SÁNCHEZ GARCÍA
Resumen: A continuación se hará un repaso sobre el papel tan importante que la aerodinámica
ha jugado y juega en las carreras de automovilismo. Además, se verá como gracias a los modelos
matemáticos se ha podido desarrollar este aspecto de manera notable.
HISTORIA DE LA AERODINÁMICA EN LOS COCHES DE CARRERAS
El tema de la aerodinámica es relativamente nuevo, ya que se empieza desarrollar con
muchos más estudios y pruebas a partir del año 1960, por la necesidad de tener vehículos de
carrera más estables y seguros ya que los carros poseían mucha potencia y tecnología a nivel
mecánico y las velocidades se hacían cada vez más altas y peligrosas.
De aquí es que nace la necesidad de hacer la producción de una fuerza aerodinámica dirigida hacia
abajo (sustentación negativa) que empuje el vehículo contra el suelo y lo haga mucho más seguro,
estable y con un nivel de competición más alto.
En el mundo de las carreras, la eficacia aerodinámica fue, durante décadas, concebida sólo como
un método para poder ir más rápido en las rectas, pero en realidad supone unas enormes mejorías
tanto en el paso por las curvas como en el frenado. El reconocimiento y la explotación de este
hecho han significado, durante los últimos 30 años, el desarrollo tecnológico más importante.
La importancia de la aerodinámica ha sido reconocida a través de gran parte de la historia de las
competencias de autos de carrera. Desde los comienzos de la carrera Indianápolis 500 (Indy 500),
los carros ya eran construidos con los cuerpos aerodinámicos. Sin embargo, la tecnología del motor,
la suspensión, y los neumáticos era más importante en aquella época. La aerodinámica del
automóvil no fue estudiada detenidamente sino hasta principios de la década de 1960. La reducción
de la resistencia del aire sigue siendo importante, pero un nuevo concepto (idea) ha tomado
prioridad: la producción de una fuerza aerodinámica dirigida hacia abajo (sustentación negativa), que
es considerada más importante que la reducción de la resistencia.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Desde el principio de las competencias de autos de carreras, los carros se han vuelto más y más
rápidos. A principios de la década de 1960, la velocidad ya había alcanzado un nivel peligroso. Para
disminuir la velocidad y aumentar la seguridad, se decretaron algunas reglas para limitar la potencia
del motor y talla de los neumáticos.
Puesto que la resistencia del aire producida por el vehículo y los neumáticos ya había sido
reducida, los diseñadores necesitaban encontrar alguna otra cosa que les diera a sus coches una
ventaja sobre los demás. Ahora, la mayoría de los automóviles producían sustentación. Conforme la
velocidad aumenta, la fuerza de sustentación aumenta y el auto se vuelve inestable.
Para contrarrestar el problema de la sustentación, los autos de carreras modernos están
diseñados para producir sustentación negativa. Esto significa que al auto se le agregan algunos
dispositivos que causan que el auto presione contra el suelo y se mantenga más cerca de él. Estos
dispositivos neutralizan la sustentación producida por el vehículo o crean de hecho sustentación
negativa (fuerza que apunta hacia abajo). Hasta el día de hoy se siguen desarrollando estudios
sobre la aerodinámica y como sacar el mayor provecho de la misma.
Se denomina aerodinámica a la ciencia del manejo de las corrientes de viento, aplicada a los
autos de carreras para añadir adherencia o agarre a los mismos, con el objeto de lograr mayor
velocidad y seguridad al piloto. Hay varios métodos que se utilizan para reducir la sustentación o
para crear fuerza hacia abajo. Estos métodos incluyen interceptores aerodinámicos (spoilers) y
efectos de tierra. El tipo de dispositivo utilizado depende de la clase de competencia y de las
restricciones (reglas) que hayan sido impuestas.
Como mencionaba anteriormente los alerones delanteros y traseros aumentan el apoyo
aerodinámico y, por lo tanto, la velocidad en las curvas. Los mismos se ajustan a las características
de cada circuito. En los circuitos rápidos, con largas rectas y pocas curvas, las alas son casi
horizontales para reducir el apoyo aerodinámico y la resistencia al avance (e incrementa la velocidad
máxima) en las rectas. En circuitos lentos, con pocas rectas y muchas curvas, las alas tienen mucha
más inclinación, pues se sacrifica la velocidad máxima en función del agarre (y con él la velocidad)
en las curvas, debido al aumento del apoyo aerodinámico. Un dato importante y curioso a resaltar
seria el hecho de que un auto de Formula Uno genera hasta cuatro veces su peso en apoyos
aerodinámicos ascendentes.
Los dispositivos disponibles más simples son un tipo de presas de aire delanteras e
interceptores aerodinámicos traseros. Estos dispositivos tienen realmente varios efectos positivos. Al
reducir el flujo del aire por debajo del vehículo, una presa de aire delantera reduce la resistencia del
automóvil. Además, inmediatamente detrás de la presa de aire, la presión también se reduce, lo cual
ayuda a que el radiador reciba un flujo de aire fresco. Al mismo tiempo, la sustentación se reduce en
la parte de enfrente del coche. El interceptor aerodinámico trasero puede reducir la separación del
flujo en la ventana posterior, lo cual reduce la resistencia del aire. También hace que aumente el
flujo del aire por debajo del auto, lo cual promueve la generación de una fuerza hacia abajo en la
parte posterior del coche.
Se utilizan alas reales (como las de un avión común y corriente) en los autos de carreras de
Fórmula Uno, Indy, y Grupo C. Sin embargo, las alas se invierten (se colocan con la parte de arriba
hacia abajo) para producir una fuerza hacia abajo en lugar de sustentación hacia arriba. Al instalar
las alas cerca del suelo, se pueden producir cantidades más grandes de esta fuerza que apunta
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
hacia abajo. Esto se debe al aumento de la velocidad del flujo entre el ala y el suelo. El aumento en
la velocidad del flujo causa que la presión en la superficie inferior del ala disminuya, y que, por
consiguiente, la fuerza hacia abajo aumente.
Otro de los dispositivos que se utilizan es el conocido como "strake". Estos dispositivos se
usan comúnmente en los aviones de alto rendimiento. En un avión, el strake produce sustentación.
En un auto de carreras, la mayoría de las veces el strake es utilizado en combinación con una ala
montada en la parte de atrás para aumentar la fuerza hacia abajo en la parte posterior del carro.
Los strakes también pueden estar instalados en la parte de enfrente del coche. Se utilizan en
carros que no tienen alas delanteros. Estos strakes se pueden ajustar para balancear la fuerza hacia
abajo entre el strake delantero y el strake trasero.
Otro dispositivo que se utilizaba para aumentar la fuerza hacia abajo eran las "faldillas", las
cuales se montaban en los lados del coche y cerca del suelo. Entre más cerca del suelo estaba la
faldilla, mayor era la fuerza hacia abajo que se producía. Pero si por alguna razón la faldilla se
despegaba repentinamente, ocurría una enorme pérdida de fuerza hacia abajo. Esto podía
fácilmente originar que el piloto perdiera el control del coche. Por tal motivo, se prohibió el uso de
faldillas en la mayoría de las competencias.
La prohibición de las faldillas condujo al desarrollo de canales en la parte de abajo del carro.
Estos canales se extienden de la parte de enfrente a la parte de atrás. Conforme la velocidad del
aire que corre a través de los canales aumenta, la presión disminuye. Si se permite que entre aire de
los lados, se forma un vórtice muy fuerte. Este vórtice ayuda a estabilizar el flujo que corre por
debajo de todo el vehículo. De esta forma, estos canales aumentan la fuerza hacia abajo y
disminuyen la resistencia del aire del vehículo.
En las carreras de Fórmula Uno y NASCAR, los canales en la parte de abajo de los autos no
están permitidos. Por lo tanto, se agrega una pequeña inclinación detrás del eje trasero. Esta
inclinación tiene el mismo efecto que los canales, sólo que en menor grado. Sin embargo, hay que
recordar que en las carreras de autos cualquier ayuda cuenta.
La fuerza hacia abajo tiene que estar bien distribuida entre la parte delantera y la parte trasera
del coche. Si el carro tuviera una carga más grande en la parte de enfrente que en la parte de atrás,
no será estable. Cuando la parte trasera tiene una carga más grande, el coche se estabiliza. El
balance no deja de ser importante, porque si el auto es demasiado estable, resulta difícil dar vuelta.
El instalar un ala en la parte delantera de un auto Indy podría causar problemas. La
instalación de un ala delantero causa que el flujo del aire se desvíe de las entradas de aire fresco.
Esto se puede solucionar cortando una porción de la ala cerca del encastre (la base de la ala). Esto
puede resultar en una mucha mejor distribución de la fuerza hacia abajo al mismo tiempo que se
mantienen las entradas de aire despejadas para una mejor circulación de aire fresco.
Para los prototipos de carreras, el uso de un ala delantera crea diferentes problemas. La ala
puede hacer que el flujo de aire se desvíe por encima del coche y se aleje de los canales de la parte
de abajo del auto. La fuerza hacia abajo en el eje trasero se reduce. Usando una superficie superior
cóncava, los efectos de un ala delantera se pueden simular (imitar) sin tener que desviar el flujo de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
la parte de abajo del coche. Esto puede mejorar la distribución de la fuerza hacia abajo entre el eje
delantero y el eje trasero.
La colocación del ala posterior también podría resultar problemática. El papel principal de un
ala posterior única es ayudar al flujo que corre por debajo del coche. Pero la fuerza hacia abajo se
reduce al instalar esta ala. Para recuperar parte de la fuerza pérdida, una segunda ala se coloca
más arriba, encima de la primera ala. Las reglas de las competencias de autos de carreras limitan la
altura a la que se puede colocar la segunda ala en los prototipos y coches de Fórmula Uno, pero las
reglas de las carreras Indy sólo permiten un ala en la parte posterior del coche.
Las llantas también crean resistencia aerodinámica en los coches que tienen las ruedas
descubiertas. Esto se debe a la separación del flujo de aire detrás de los neumáticos. Se han
utilizado varios artificios (trucos) para tratar de disminuir esta resistencia. Generalmente se utiliza
una simple placa para desviar el aire alrededor de la llanta, reduciendo así la separación del flujo.
Los pilotos aprovechan la aerodinámica el día de la carrera para sacar ventaja. Siguiendo a
otro coche lo más cercano posible, un piloto puede lograr reducir la resistencia de su auto y gastar
menos combustible (a esta práctica se le conoce como "drafting" y es utilizada muy a menudo por
los pilotos de NASCAR, particularmente. La resistencia del carro de enfrente también disminuye
porque la separación del flujo en la parte posterior es menor debido al coche que lo sigue. Sin
embargo, conforme los coches se acercan uno al otro, la cantidad de sustentación y fuerza hacia
abajo varía. Esto representa un problema porque significa menos estabilidad para ambos coches.
Los prototipos y los autos de carreras Indy utilizan canales en la parte de abajo, lo cual hace
que la práctica del drafting no sea una buena opción. Estos canales provocan que el flujo de aire
proveniente del coche de adelante sea altamente turbulento (desordenado). Esto, a su vez, tiene un
efecto negativo en los dispositivos aerodinámicos del vehículo que va siguiendo al primero. Por lo
tanto, en este tipo de carreras, el piloto que va al frente podría utilizar los efectos aerodinámicos de
su vehículo para hacer que los coches que lo siguen pierdan velocidad al forzar a los demás pilotos
a conducir en su estela (turbulencia).
Debido a la fuerza aerodinámica que se genera hacia abajo, la velocidad que alcanzan los
autos de carreras ha seguido elevándose. Constantemente se realizan cambios en las reglas que
rigen el uso de dispositivos en el vehículo, así como en los esfuerzos que realizan los diseñadores
para desarrollar nuevos dispositivos que aumenten la velocidad.
Conforme la aerodinámica de los autos de carreras cambia, también cambian las técnicas de
los pilotos. Pronto podría desarrollarse una nueva rama en la aerodinámica de los automóviles, ya
que actualmente se está intentando ¡romper la barrera de sonido en un automóvil!
A continuación desarrollaremos un poco más de que trata la aerodinámica en los automóviles
comunes y corrientes, para poder entender de una forma más clara en que se basa la aerodinámica
en los automóviles de carrera.
La aerodinámica tiene su mayor impacto en los carros y camiones modernos a través de su
contribución a las cargas sobre el carro. Las fuerzas aerodinámicas interactúan con el vehículo
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
causando arrastre, sustentación, fuerzas laterales, momentos y ruidos. Todo ello trae como
consecuencia alteraciones en el consumo de combustible, el manejo y la estética de un vehículo.
Los parámetros que rigen las formas de un auto de calle son muy diferentes a los de un auto
de carreras. Aunque los dos son producto de limitaciones impuestas por el hombre y por la
naturaleza, estas imposiciones surgen de requerimientos muy diferentes: mientras que en los autos
de carreras la eficiencia aerodinámica, la sustentación negativa y las reglas propias de cada
categoría son las que le dan forma al auto, en los autos de calle la estética, la funcionalidad, el
consumo de combustible, la seguridad y el uso particular del carro son los que determinan su forma.
A finales del siglo 19 y principios del siglo 20 la preocupación de los fabricantes de
automóviles estaba centrada en el desarrollo y optimización de los componentes mecánicos de un
automóvil (motor y transmisión). Por supuesto la estética jugaba un papel fundamental, pero
básicamente los coches consistían en un bastidor precario sobre el cual se montaba el motor, la
transmisión y las tres o cuatro ruedas con su respectivo sistema de dirección. Todo ello se remataba
con una carrocería a la moda, generalmente diseñada por carroceros italianos o ingleses, con un fin
más estético que ingenieril.
En la década de 1930 los fabricantes de automóviles en los Estados Unidos de América y en
otros países se preocuparon por reducir el arrastre en la producción de modelos de automóviles y en
esta forma introdujeron la configuración aerodinámica.
La mayor parte de este trabajo era intuitivo por parte del diseñador, solamente desde 1945 los
ensayos en túneles de viento se utilizaron en forma extensa para el diseño de automóviles, llegando
a formas convencionales. A pesar de los esfuerzos, algunos diseños intuitivos que parecían bien
delineados con forma aerodinámica, usualmente tenían serios problemas de flujo de aire.
Los dos primeros automóviles producidos masivamente y con forma aerodinámica fueron
estadounidenses, el Chrysler Airflow (1934) con Cd = 0.50 y el Lincoln Zephyr (1936) con Cd = 0.45.
Estos coeficientes de arrastre fueron considerablemente menores que los de otros automóviles pero
tuvieron un éxito comercial limitado. En 1948 se produjo sin mucho éxito el Tucker Torpedo 51 (Cd =
0.39). El desarrollo a partir de esos años fue grande y hoy en día la mayor parte de los automóviles
tipo sedan tienen un Cd entre 0.32 y 0.35.
Modelos matemáticos para la obtención de una mejor aerodinámica
El flujo sobre el cuerpo de un carro está gobernado por la relación entre velocidad y presión
expresada en la ecuación de Bernoulli:
P estática + P dinámica = P total (1)
Ps
+ ½ r V2 = P total
Antes de aproximarse al vehículo la presión estática es simplemente la ambiental. La presión
dinámica es producida por la velocidad relativa, que es constante para todas las líneas de corriente
aproximándose al vehículo. Por lo tanto la presión total es la misma para todas las líneas de
corriente. Al aproximarse el fluido al vehículo, las líneas de corriente se "parten", algunas van a la
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
parte de arriba y otras a la parte de abajo del vehículo. Por interferencia, una línea de corriente debe
ir derecho al cuerpo y estancarse (generalmente en el parachoques del carro), con lo cual la
velocidad relativa se va a cero y la presión dinámica observada en ese punto debe ser cero.
La situación de las líneas de corriente al aproximarse al capó es similar a lo que sucede con
un fluido que pasa a través de un cilindro. Para que las líneas de corriente se doblen hacia arriba la
presión estática en esta región debe ser mayor que la ambiente para así proveer la fuerza necesaria
para doblar el fluido. De la misma forma cuando el flujo se voltea para seguir la primera parte del
capó, la presión debe ser menor que la ambiente de tal forma que el fluido se "doble" hacia abajo y,
por lo tanto, la velocidad se debe incrementar.
La ecuación de Bernoulli explica cómo la presión y la velocidad deben variar sobre el cuerpo
de un auto. Si no existiera la fricción el aire simplemente subiría hasta el techo del carro y bajaría por
la parte de atrás, intercambiando presión por velocidad como lo hizo adelante. Para este caso las
fuerzas de presión en la parte de atrás del vehículo balancearían exactamente las de enfrente (no se
produciría arrastre). Pero se produce arrastre como todos sabemos. El arrastre se debe en parte a la
fricción del aire sobre la superficie del vehículo y en parte a las alteraciones del flujo en la parte de
atrás del vehículo. Estas alteraciones se producen debido a la separación de la capa límite.
La capa límite en el frontal de un vehículo empieza en el punto de estancamiento. En ésta
parte de la dirección del flujo se produce el llamado "Gradiente de Presión Favorable", es decir,
debido a que la presión va disminuyendo desde éste punto, el gradiente de presión empuja el aire a
lo largo de la capa límite impidiendo su crecimiento. Desafortunadamente, cuando el fluido se voltea
nuevamente, la presión se incrementa nuevamente, desacelerando el flujo de la capa límite y
haciéndola crecer ("Gradiente de Presión Adverso"). Existe un "Punto de Separación" donde el flujo
cerca de la superficie es reversado debido a la presión. En este punto el flujo principal ya no está
adherido al cuerpo y ahora es capaz de romperse e irse en línea casi recta. Debido a que trata de
ingresar aire desde la región detrás del cuerpo, la presión en esta parte cae a menos de la ambiente.
Se forman vórtices y el fluido es muy irregular en esta región.
La presión en la región de separación es menor que la de la parte frontal del vehículo, la
diferencia de estas fuerzas totales de presión es la responsable del "Arrastre de Forma". La fuerza
de arrastre resultado de la acción de la fricción viscosa en la capa límite de la superficie del carro es
la llamada "Arrastre de Fricción".
Distribución de Presiones sobre un vehículo
La distribución de presión estática es resultado del mecanismo básico explicado en el anterior
punto. Una presión negativa se desarrolla en la punta frontal del capó cuando el flujo que sube de la
parte frontal intenta seguir la forma horizontal del capó. El gradiente de presión adverso en este
punto tiene el potencial de atascar el flujo de capa límite creando arrastre en ésta área.
Cerca de la base del parabrisas el flujo debe ser doblado hacia arriba por lo cual se
experimenta una alta presión. Esta región de alta presión es el sitio ideal para colocar entradas de
aire. La baja velocidad de esta región hace adecuada la colocación de limpiaparabrisas.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La presión se hace nuevamente negativa sobre el techo cuando el flujo intenta seguir el
contorno de éste. La presión sobre el vidrio trasero y sobre el baúl continúa baja debido a la
curvatura continua. Es en ésta región donde sucede con más frecuencia la separación. El diseño de
los ángulos y los detalles del contorno del vehículo requieren una especial atención desde el punto
de vista aerodinámico.
Debido a la baja presión en el techo, el flujo sobre los lados del carro intentará alimentar de
aire esta región y dará pié a potencial separación. Este flujo, combinado con el del techo, formará
vórtices que se desprenden desde atrás del carro.
La escogencia de los ángulos del vidrio trasero y de la longitud del baúl tendrá un impacto
directo sobre el control del punto de separación y las fuerzas aerodinámicas. A menor área del punto
de separación, menor el arrastre. Teóricamente, la forma aerodinámica ideal es una parte trasera en
forma de gota con una forma cónica afilada en un ángulo de 15º o menor. Desde 1930 ya se
reconocía que, debido a que el área hacia la punta del cono es muy pequeña, la punta de un
vehículo ideal puede ser cortada sin una penalización muy grande del área de separación,
permitiendo de esta forma más espacio para las plazas traseras.
Componentes del Arrastre
El arrastre es la mayor y más importante fuerza aerodinámica encontrada en autos de pasajeros
a velocidades normales de autopista. El arrastre total en los vehículos se deriva de varias fuentes.
Existe un gran potencial de reducción de arrastre en esas áreas. Para un vehículo normal,
aproximadamente un 65% del arrastre proviene del la carrocería.
•
•
•
•
•
•
Parte trasera: La mayor contribución de arrastre proviene de la parte trasera debido a la zona
de separación. Acá es donde existe el mayor potencial de reducción.
Parte delantera: El arrastre delantero es influenciado por el diseño del frontal y del ángulo del
parabrisas. La localización de la altura de la punta frontal del vehículo establece el punto de
estancamiento y la separación del flujo hacia arriba y abajo del auto. El menor arrastre se
obtiene con una altura baja de éste punto y con una forma bien redondeada.
Parabrisas: Ángulos bajos reducen el arrastre pero complican el diseño del vehículo pues
inducen un mayor calentamiento del interior e incrementan la distorsión óptica.
Parte inferior: Las suspensiones, el exhosto y otros elementos protuberantes en la parte
inferior de la carrocería son responsables de arrastre.
Protuberancias: Una segunda área de reducción de arrastre son las protuberancias de la
carrocería. Por ejemplo, las ruedas producen un flujo turbulento recirculante en las cavidades,
aumentando el arrastre.
Flujo interno: El sistema de refrigeración, con el aire pasando a través del radiador,
impactando el motor y frente de la cabina produce presión dinámica que actúa como arrastre
en esa zona. Un diseño cuidadoso puede dirigir el flujo de tal forma que mantenga su
velocidad.
Un caso de optimización
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La optimización está fundada en la premisa que el concepto de estilo del carro está
establecido de antemano y que las mejoras aerodinámicas sólo pueden ser logradas en la forma de
cambios pequeños a detalles de estilo. El poder de reducción en el arrastre debido a la atención en
los detalles puede ser muy grande.
Como ejemplo tenemos el recientemente lanzado Mercedes-Benz Clase C. Uno de sus
atributos más impresionantes es el bajo coeficiente de arrastre aerodinámico. Los ingenieros de la
Mercedes lograron reducirlo en un 13% sobre la anterior generación de Clase C (ahora está en
0.26). La compañía anota que el arrastre puede ser responsable de más de la mitad del consumo
de combustible en un auto de pasajeros.
La atención en los detalles es la causante de tan sorprendente número .Cinco medidas son las
responsables de esto:
•
•
•
•
•
"Air Dams": "Spoilers" localizados debajo de la nariz del carro, reducen el arrastre y la
sustentación e incrementan el flujo de aire al radiador haciendo que se separe de la parte
trasera de la carrocería con poca turbulencia.
"Spoilers" Traseros: Los "spoilers" y las superficies de sustentación funcionan así: al desviar
el aire hacia arriba, la presión es incrementada en la parte trasera creando una sustentación
negativa.
"Spoiler" en las ruedas: Estos pequeños elementos plásticos en las ruedas delanteras y
traseras reducen la presión trasera del aire en frente de las ruedas, reduciendo el valor del
coeficiente de arrastre y la sustentación.
Encapsulación de la parte inferior: Los grandes y suaves paneles plásticos que llegan hasta el
eje trasero permiten que el flujo de aire fluya sin turbulencia.
Encapsulación del compartimiento del motor: La total encapsulación del compartimiento del
motor no sólo permite el control acústico sino que también guía el flujo del aire acertadamente
hacia abajo y previene la formación de remolinos en el área del motor.
Ahora bien, ya habiendo desarrollado de una manera un poco amplia todos los factores que
influyen en la aerodinámica de un vehículo, se puede continuar indagando en el tema con más
conocimientos básicos sobre la materia (aerodinámica).
Los apéndices aerodinámicos, junto con los neumáticos, proporcionan a los carros de Fórmula
Uno una sensacional habilidad para girar. Así pueden llegar a generar fuerzas laterales de más de
3.5 G al pasar por una curva. En comparación, un carro normal no puede llegar a sostener mucho
más de 1G, ya que en ese punto pierde el agarre y comienza a derrapar.
El apoyo aerodinámico es la clave para esta sensacional habilidad para girar: la creación de la
“sustentación negativa” que se consigue con apéndices aerodinámicos que realizan la función
inversa a las alas de un avión, empuja el carro hacia abajo y aumenta el nivel de adherencia de las
llantas.
La nueva reglamentación introducida en 1998 tenía la intención de reducir los niveles de apoyo
aerodinámico por el bien de la seguridad. La reducción del apoyo atribuible a estos cambios fue de
alrededor de un 15% pero es tal el desarrollo en la Fórmula 1 que este déficit se compensó a lo largo
del año.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La mayoría de las ayudas aerodinámicas de un carro de Fórmula 1 están compuestas de dos
capas de fibra de carbono envolviendo un perfil de aluminio en nido de abeja.
Un carro de Fórmula 1 es, en esencia, una forma “sucia” aerodinámicamente hablando, ya que la
reglamentación de la FIA dicta que los monoplazas no lleven carrocería y que las ruedas no vayan
cubiertas, por lo que la misión de lograr la eficacia aerodinámica es muy dura.
A pesar de que la pista es la meta final, el túnel de viento es donde se encuentra el verdadero
desafío.
Así, se crea un modelo a escala, en lo que cada detalle relevante del carro auténtico es
reproducido fielmente. La mayoría de los túneles de viento de Fórmula 1 pueden alojar
reproducciones de un 40-50 % del tamaño real. Durante el transcurso de las pruebas se cambian
docenas de pequeños detalles para comprobar si mejora el rendimiento: morros alternativos con
otras formas, difusores traseros, entradas de aire de los pontones, alerones delanteros y traseros y
una infinidad de cosas más. Los efectos aerodinámicos en diferentes zonas del carro suelen estar
relacionados entre sí, por lo que el proceso resulta muy complejo. Los aerodinamistas saben
también que los factores externos influirán en el rendimiento del carro: una ráfaga de viento, o el aire
turbulento producido por un coche que marcha adelante.
Los mejores equipos cuentan con hasta cinco aerodinamistas debido a la cantidad de factores
que hay que tener en cuenta. Las pruebas en los túneles de viento no están limitadas al período de
gestación de un nuevo coche, aunque ciertamente es cuando más se trabaja en ello. Esta tarea
continúa a lo largo de la temporada, ya que siempre se están creando refinamientos para mejorar
resultados.
Hay mucho más en el túnel de viento de lo que se pueda parecer a la primera vista, Las
fotografías publicadas de túneles de viento en funcionamiento, normalmente, muestran el modelo a
escala colocado sobre una base conocida como la sección de trabajo, pero ésa es una parte muy
pequeña de toda la instalación. Escondida se encuentra una enorme turbina que genera el flujo de
aire que pasa por la maqueta. El aire viaja a una distancia considerable antes de alcanzar la zona
de trabajo. Antes se acelera a través de las paredes, el suelo y el techo convergiendo para formar
lo que se conoce como tobera de concentración.
Tras llegar a la zona de trabajo, el flujo de aire vuelve a circular por la turbina para pasar por el
modelo a escala una y otra vez. Esto garantiza unos resultados más regulares, ya que el aire fresco
del exterior produciría fluctuaciones en la temperatura, lo que alteraría la densidad de manera
impredecible.
Para simular las condiciones más parecidas a la realidad, la maqueta, sujeta desde arriba por un
brazo, se coloca sobre una cinta móvil que simula el movimiento de la superficie de la pista debajo
del carro. El “suelo móvil” como es conocido, se mueve a una velocidad correspondiente al flujo de
aire, que pasa por el túnel de viento, una vez más, para simular de manera precisa las condiciones
reales.
Las cuatro ruedas/llantas no están fijadas al modelo de escala. En realidad, se encuentran
situadas a cierta distancia de él, sujetas a unas varillas horizontales montadas a cada lado del suelo
móvil y reposan sobre éste, que las hace girar a la velocidad apropiada. Esta solución permite la
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
medición de los niveles de apoyo aerodinámico independiente en cada llanta.
Debido a su gran tamaño, las llantas crean bastante resistencia aerodinámica: alrededor de un
tercio del total del carro. Los aerodinamistas intentan averiguar cómo los niveles de resistencia de
las ruedas son influenciados por los cambios realizados en otras partes del carro
El brazo que sujeta el modelo escala es parte del complejo sistema que mide las fuerzas
aerodinámicas que actúan sobre la maqueta. Los datos resultantes son enviados a un ordenador
situado en la sala de control del túnel justo enfrente de la zona de trabajo. Los aerodinamistas
ponen en particular énfasis tres parámetros: apoyo aerodinámico, resistencia aerodinámica y
equilibrio de las fuerzas actuantes sobre cada eje.
Los niveles de apoyo aerodinámico deberían aumentar durante el transcurso de una sesión de
trabajo en el túnel de viento como resultado de las modificaciones llevadas a cabo sobre la maqueta.
Es necesario tener un dispositivo que crea succión, situado justo por debajo de la zona de trabajo,
con el fin de de mantener plano el suelo móvil, ya que, a pesar del modesto tamaño, la maqueta
genera una considerable succión aerodinámica que levantaría el suelo móvil
Los niveles de resistencia juegan un papel crítico en el rendimiento aerodinámico, ya que no sólo
reduce la velocidad del carro sino que afecta al consumo de combustible. Los aerodinamistas
intentan aumentar el apoyo sin que aumente también la resistencia.
El equilibrio, aplicado a la aerodinámica de un carro de carreras, es la sensibilidad del carro a los
cambios de altura del morro y la zona trasera (denominado cabeceo) y la oscilación vertical. El
cabeceo se reduce cuando el carro sube el morro acelerando o lo baja cuando frena; esta causa
que el centro de presión del carro mueva hacia adelante y hacia atrás, desestabilizando. Los
objetivos principales de las pruebas en el túnel de viento, son a la vez, minimizar los cambios en la
posición del centro de presión y mejorar la tolerancia del carro cuando éstos ocurren. Los cambios
en oscilación vertical son movimientos verticales, cambios en la altura del carro con respecto al
suelo, cuando el carro pasa por una ondulación en la pista; esto también lo desestabiliza, ya que
los niveles de apoyo varían de forma impredecible. Unos servos controlados por ordenador pueden
alterar los ángulos de cabeceo y la altura del carro mientras el túnel de viento está en
funcionamiento, lo que permite a los aerodinamistas comprobar los efectos de dichos movimientos
en el equilibrio del carro
La mayoría de los equipos de Fórmula 1 cuentan con su propio túnel del viento. Jordan, por
ejemplo, construyó el suyo propio en 1997 con un costo de 2,7 millones de euros. Sin embargo,
algunos equipos realizan sus pruebas en otras instalaciones. Por ejemplo, McLaren tienen un
acuerdo exclusivo para utilizar el túnel de viento del Instituto Nacional Marítimo de Teddington, cerca
de Londres, y Tyrrell, que venía alquilando el túnel a la universidad de Southampton a un costo de
1.500 libras por día, finalmente consiguió el suyo propio en el Aeropuerto Internacional De
Bournemouth tras llegar a un acuerdo con un patrocinador, European Aviation.
La cantidad de pruebas realizadas por un equipo varía dependiendo de si cuenta o no con su
propio túnel de viento o lo tiene que compartir con otras compañías, en caso, la disponibilidad y el
presupuesto entran en juego. El tiempo total de pruebas a lo largo de un año varía de un mínimo de
50 días pudiendo llegar hasta los 150.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La distancia no es un problema cuando la necesidad es urgente. El equipo Stewart, cuando se
preparaba para entrar en la Fórmula 1 al comienzo de 1997, realizaba sus pruebas un océano y un
continente más lejos, en la fábrica de Swift en San Clemente California.
El equipo Stewart está dirigido por el triple campeón del mundo Jackie Stewart y su hijo, Paul, y
cuenta con un gran apoyo de Ford. Con base en Milton Keynes, justo al norte de Londres, tuvo una
temporada de debut muy prometedora, marcada por el segundo puesto logrado por Rubens
Barrichello en el Gran Premio de Mónaco.
Los continuos avances de la tecnología alteran la naturaleza de las pruebas aerodinámicas. En el
túnel del viento se utilizan rayos láser para “visualizar” la turbulencia y medir el flujo de aire en
determinadas zonas. El laser ofrece el beneficio de ser capaz de medir de forma precisa las
características del flujo de aire sin interferir físicamente con él.
Además, las pruebas en el túnel del viento se complementan cada vez más con análisis por
ordenador del comportamiento del flujo de aire. Una rama emergente de la disciplina conocida como
Dinámica de Fluidos Computacional (Computacional Fluid Dynamics, CFD) permite predecir el
rendimiento aerodinámico de los objetos antes, incluso, de ser constituidos. La CFD también permite
realizar comparaciones con las pruebas físicas realizadas con la maqueta con el fin de aumentar la
precisión de las técnicas utilizadas para probar.
Los alerones delanteros normalmente proporcionan un 25 por ciento del apoyo aerodinámico total
del carro, pero cuando un carro sigue de cerca a otro, puede llegar a perder hasta un 30 por ciento
de ese apoyo debido a que las turbulencias causadas por el carro de adelante reducen la eficacia
aerodinámica. Esta es la principal razón por la que los adelantamientos se han convertido en algo
poco corriente en la Fórmula 1.
Ya se explicó al comienzo, de diseñadores que intentan llevar hacia adelante la mayor cantidad
de peso posible, ya que los componentes más pesados se encuentran en la parte de atrás y
desgastan con mayor facilidad las llantas traseras.
Pero aparte del efecto favorable de la distribución del peso, existe un beneficio aerodinámico en
la transferencia del peso a las llantas delanteras.
Esto es así porque, cuando mayor peso haya en las llantas traseras, mayor es el apoyo
aerodinámico necesario para mantener el rendimiento al girar, y mayor es la resistencia
aerodinámica. Por tanto es, es preferible retribuir el peso hacia la parte delantera y después generar
más apoyo con los alerones delanteros, lo que le da al carro un mejor equilibrio.
Cada alerón delantero está compuesto normalmente por dos o tres apéndices aerodinámicos.
Habitualmente están montados sobre dos soportes que salen del morro, aunque también puede ser
uno solo. En algunos carros con doble soporte, éstos se encuentran en diagonal arqueados, en
lugar de verticalmente para contribuir a la rigidez lateral.
En los extremos de los alerones delanteros se encuentran las derivas. Estas canalizan el flujo de
aire para mejorar su eficacia evitando que se “escape” por los extremos del alerón y pierda
efectividad. Además ayudan a equilibrar el flujo de aire de las llantas. El flujo de aire cuando sale
del alerón delantero y pasa por debajo del carro, debe estar equilibrado y bien dirigido con el fin de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
que el fondo plano y el difusor trasero funciones correctamente.
El espacio entre el alerón y el suelo puede ajustarse, así como los ángulos de los diferentes
apéndices del mismo. En principio, cuando mayor es el ángulo, mayor será el apoyo aerodinámico.
Para incrementar el apoyo la mayoría de los carros incluyen el “perfil Gurney” fijado en el borde
de salida del alerón delantero. llamado así en homenaje al legendario piloto americano Dan Gurney,
se trata de una fina tira de fibra de carbono que añade un pequeño borde a la forma del alerón ,
incrementando el apoyo que genera (también se montan en el alerón trasero y en el difusor).
Cuando se necesita incluso más apoyo aerodinámico, algunos carros montan apéndices extras
montados encima del principal. Estos <<bigotes>> fueron introducidos por primera vez por el equipo
Tyrell.
Montar el alerón delantero cerca del suelo aumentará su eficacia, pero existe una regla que
marca lo cerca que se puede situar. En 1993, la FIA subió la distancia obligatoria entre los derivas
del alerón delantero hasta 40 mm, mientras que hasta ese momento había sido de 25mm.
En 1997, Ferrari introdujo un nuevo alerón construido con una fibra de carbono especial que
hacía que se torciera por las puntas cuando era sometido a la presión del aire. Haciendo eso, se
lograba que la distancia con el suelo se redujera, incrementando su eficacia al subir el nivel de
resistencia aerodinámica. Cuando el carro se encontraba en reposo, sin influencias aerodinámicas,
los alerones cumplían perfectamente el reglamento, pero un simple toque con la mano era suficiente
para doblarlo, por lo que normalmente no se notaba nada a simple vista.
El reglamento de la FIA prohíbe <<apéndices aerodinámicos móviles>> todo lo que tuviera
alguna importancia en la aerodinámica debía no moverse cuando el carro lo hacía, pero esto
siempre se interpretó como una prohibición de métodos mecánico que alteraran el ángulo de las
ayudas aerodinámicas. El reglamento especificaba lo duros que debían ser los alerones; por lo tanto
, era un área por explotar. Ferrari había seguido las reglas al pie de la letra en lugar de adaptarse a
la lógica: algo bastante común en la Fórmula 1.
Todas las estructuras se tuercen bajo presión, tanto si se trata de un alerón de un avión o del
mango de una raqueta de tenis. Si fueran demasiado duros se romperían. El innovador alerón de
Ferrari, diseñado para tener una capacidad de torsión, causó dolores de cabeza a los directivos de la
Fórmula 1. En el campeonato CART americano, en el que se utiliza carros con muchas similitudes
a los de Fórmula 1, los comisarios cuelgan pesos de determinadas partes de la carrocería, incluidos
los alerones, y después toman las medidas para asegurarse de que no pasen los límites impuestos.
Esta solución fue incorporada en la Fórmula 1 por la FIA en 1998.
Vistos por primera vez en un Gran premio de 1994, los canalizadores laterales, también
conocidos como guías de flujo, van montados a los lados de los carros de Fórmula 1 con el fin de
ayudar a controlar las turbulencias salientes del alerón delantero. Si no se trataran, estas
turbulencias disminuirían la eficacia de otros apéndices aerodinámicos situados en la parte trasera.
La nueva reglamentación para 1998 ha tenido como resultado que ruedas delanteras influyan en
el flujo de aire controlado por los canalizadores laterales, por lo que su importancia es aun mayor.
Los canalizadores laterales
se montan en diferentes formas, tamaños y combinaciones de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
acuerdo con los requerimientos aerodinámicos de los carros en los diferentes circuitos, y debe de
haber uso de huecos en ciertos canalizadores laterales para permitir el paso a los elementos de la
suspensión. Algunos canalizadores laterales de poca altura y largos, extendiéndose hasta los
pontones, mientras que otros son altos y cortos. Los canalizadores laterales alargados se pueden
ver en la foto del Minardi en 1997. Este pequeño equipo de Faenza, Italia, ha sobrevivido en un
mundo ultra competitivo que ha visto cómo han desaparecido nombres ilustres como Brabham o
Lotus. Carece del presupuesto, y con ello de las facilidades de los equipos grandes, pero ha
conseguido grandes resultados y ha lanzado a muchos pilotos de cabeza como Giancarlo Fisichella.
Los carros de Giancarlo Minardi, son obra del diseñador jefe Gustav Brunner, que trabaja bajo las
ordenes de Gabrielle tredozzi.
La tendencia de utilizar los morros elevados en los Fórmula 1, iniciada por el diseñado jefe de
Tyrrell Harvey Postlehwaite, tiene como objetivo permitir el paso a la mayor cantidad de aire posible
debajo del carro, donde pasa por el fondo plano y llega al difusor para generar más apoyo
aerodinámico. El morro del Ferrari de 1998 estaba tan alto que tenía dos salientes para poder
albergar un lugar de descanso para los talones del piloto.
El piloto de McLaren, David Coulthard, comparó la posición para pilotear un Fórmula 1 con estar
metido en la bañera mientras se utilizan los pies para jugar con los grifos.
Algunas protuberancias en los morros de los coches tienen la función de dirigir el flujo de aire
alrededor del cockpit y hacia los tomas de aire.
El director técnico de McLaren,Adrian Newey, es conocido como el diseñador de más talento de
la Fórmula 1. Sus ideas, llevadas a cabo en MP4/13 de 1998, han permitido a Ron Dennis, jefe del
equipo, volver a colocar a su equipo en lo más alto de la Fórmula 1.
El apéndice aerodinámico más importante de un carro de Fórmula 1 es casi invisible para los
espectadores, a menos que el carro sea levantado por una grúa. Se trata del fondo del plano: un
panel de fibra de carbono y aluminio, con tres superficies planas, una <<quilla>> con una superficie
elevada a ambos lados que va unida directamente a la parte inferior del chasis.
En 1998, el Lotus diseñado por Colin Chapman logró con éxito astronómico generando de una
manera revolucionaria más apoyo aerodinámico. El monoplaza contaba con unos grandes
apéndices montados dentro de los pontones y unos <<faldones>> que anulaban el espacio entre
lotus, considerado completamente legal fue copiado universalmente e hizo histórica la época
conocida como la de los carros con <<efecto suelo>>.
Esa era llego a su fin en 1983, cuando se introdujeron unas nuevas normas con el fin de reducir
el apoyo aerodinámico y así limitar la velocidad de paso de curva de los carros de Fórmula 1, que
para entonces se habían vuelto muy peligrosos. A pesar de que esta regla impedía a los
diseñadores introducir cualquier cosa que creara más apoyo en el fondo plano, les daba libertad
para introducir lo que desearan en el difusor trasero, el apéndice curvado hacia arriba situado detrás
del fondo plano.
La relación entre el fondo plano y el difusor trasero es crucial. La forma curvada hacia arriba
amplia el espacio entre la parte inferior del carro y el suelo, lo que hace que el flujo de aire pierda
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
velocidad del mismo modo que lo hace que salga más rápido de la parte trasera del difusor. Esto
conduce el aire desde debajo del fondo plano, acelerándolo, y según se acelera su presión
disminuye, creando un apoyo aerodinámico que <<chupa>>al carro hacia el suelo.
El nuevo reglamento introducido para 1998 estipulaba que los coches debían ser 20 cm, un 10%
más estrechos que antes: se redujo de 200 cm a 180 cm. Los equipos respondieron acercando la
rueda al carro, acortando los brazos de suspensión, en lugar de reduciendo el cuerpo del propio
carro, ya que esto habría reducido el tamaño, del fondo plano y con ello del apoyo aerodinámico. Sin
embargo las ruedas traseras ahora interferían la zona ocupada por el difusor trasero reduciendo su
área aproximadamente en un 25%, por lo que la pérdida de apoyo fue irremediable.
Esculpido alrededor de la caja de cambios, el difusor trasero consta de varios túneles no muy
largos que ocupan virtualmente todo el espacio que hay entre las ruedas.
Unos
<<separadores>>situados en el difusor canalizan el flujo de aire para maximizar su efecto: sus
formas y posiciones son determinadas en las interminables secciones del túnel de viento. Al igual
que el fondo plano, el difusor trasero tiene una construcción de fibra de carbono y aluminio. Aunque
se trata de una extensión del fondo plano, va montado sobre la estructura de absorción de impactos
trasera, que a su vez está fijada sobre la caja de cambios.
En la parte delantera del fondo plano, en el centro, hay un <<separador>> vertical que dirige el
aire a ambos lados y debajo del coche.
Durante las pruebas en el túnel de viento, los aerodinamistas ajustan la longitud del fondo plano
de acuerdo a los cambios realizados en la forma del difusor trasero. Su objetivo es conseguir el
nivel óptimo, no el máximo, de apoyo aerodinámico ya que los diseñadores se deben preocupar del
equilibrio del carro, buscando mejorar la estabilidad del carro cuando frena, acelera, o negocia
ondulaciones de la pista.
La posición exacta en la que los tubos de escape penetran en el difusor trasero es determinada
por el aerodinamista durante las pruebas del túnel de viento. Esto es debido a que la entrada de
gases en esta zona, que es muy sensible aerodinámicamente, puede tener una influencia crítica en
la estabilidad del carro, y si no son dirigidos correctamente, generaría suficiente apoyo extra como
para hacer que el carro cabeceara de manera impredecible cada vez que el piloto levantara el pie
del acelerador. Las puntas de los tubos de escape están anguladas hacia arriba y situadas por
encima del difusor en algunos coches y por debajo de otros.
Tan crítica es la mescla de los gases de escape con el difusor trasero que durante las pruebas en
el túnel del viento se simula la fuerza de estos gases mediante cargas de aire comprimido para
simular los efectos que tendría. Además, ahora la reglamentación de la FIA considera los escapes
como parte de la aerodinámica del carro. Muchos equipos han llegado a alterar la posición de la luz
trasera, que el piloto enciende cuando hay poca visibilidad, con el fin de mejorar el flujo de aire y
gases en esa zona. Debido a su función de seguridad, la localización de cada luz está reglamentada
por la FIA, pero girarla 45% es considerado legal y se consigue que sus esquinas no interfieran tanto
en el flujo de aire.
Entre los muchos factores que deben ser considerados a la hora de afinar la aerodinámica de un
carro está el de asegurarse de que los gases de escape no dañen los elementos de la suspensión
trasera.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Ya que cuanto mayor es el nivel de apoyo aerodinámico mayor es la velocidad de paso por la
curva, la FIA ha introducido repetidamente nuevas medidas para restringirla en pos de la seguridad.
Para el comienzo de la temporada 1994, la FIA introdujo una nueva regla para forzar a los
equipos a que
separaran sus carros del suelo lo más posible, reduciendo la efectividad del fondo
plano y el difusor trasero. La regla obligaba a que, debajo del fondo plano, debía ir montada una
tabla de madera de jabroc de 10 mm de grosor. Si el grosor de la tabla bajaba de 9 mm al final de la
carrera, se asumiría que el carro había rodado por debajo de lo permitido y sería descalificado.
En 1994, cuando los accidentes sufridos por Roland Ratzenberger y Ayrton Senna les costaron la
vida a ambos, la FIA se apresuró a introducir más los cambios que redujeran la velocidad en las
curvas. Una vez más, el objetivo era la reducción del apoyo aerodinámico: se creó una restricción en
la longitud del difusor trasero.
Para el comienzo de la temporada 1995, la FIA introdujo la así llamada norma de <<fondo
escalonado>> con el fin de reducir el apoyo una vez más. Esta norma exigía que el fondo plano
tuviera dos <<<escalones>> de 50 mm de altura, uno a cada lado, lo que incrementaba
significativamente la altura del carro con respecto del suelo. Esto convirtió la norma de fondo plano
creada en 1983 en una estructura de tres piezas y dos niveles como la que conocemos hoy.
Al tener que seguir llevando la plancha de madera de 10 mm, la altura del carro con el nuevo
fondo escalonado era de 60 mm para todas las partes excepto para la situada inmediatamente
debajo del chasis, que consiguió siendo la misma.
Tal es la determinación y la genialidad de los diseñadores del la Fórmula 1 de superar todas las
limitaciones, que los niveles de apoyo aerodinámico se han recuperado rápidamente. Sin embargo, el
aumento en la altura del carro ha privado a los espectadores del espectáculo de la lluvia de chispas que
producían los faldones de titanio que antes se fijaban al fondo plano y a las derivas de los alerones con el
fin de evitar que éstos dañaran cuando el carro tocaba el suelo siempre que iba cargado de combustible.
Los pontones albergan los conductos de los radiadores y rellenan la mayoría del espacio entre las
ruedas delanteras y traseras con una estructura aerodinámica. El proceso de diseño necesario para
definir la forma de los pontones es un buen ejemplo del modo en que los efectos aerodinámicos en
diferentes zonas del carro, se interrelacionan, complicando el proceso de manera considerable. A la
hora de determinar la altura de los pontones, por ejemplo, se debe encontrar un equilibrio ya que
deben ser lo suficientemente altos como para albergar los radiadores, pero no tanto como para
interferir con el flujo de aire que pasa a los alerones traseros.
La altura de los pontones también influye en el flujo del aire del coche como conjunto. El flujo ,
tras haber pasado por llantas delanteras, debe transitar por la superficie superior de los pontones
antes de llegar a las ruedas traseras. La altura de los pontones influye en el modo en el que el flujo
cambia de dirección al pasar por esas zonas, lo que a la vez influye en el apoyo aerodinámico
generado en el carro y, por lo tanto, en su estabilidad.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La longitud del fondo plano influye directamente en la longitud de los pontones, debido a una
regla de la FIA conocida como la <<regla shadowplate>>. Ésta estipula que los pontones no deben
extenderse más allá del perímetro del fondo del plano, tal y como se ve desde arriba. Ya que la
longitud, forma y altura de los pontones influyen en el rendimiento aerodinámico del carro, lo que es
un factor crítico, se debe intentar encontrar un equilibrio en la fase de diseño.
Las formas de las entradas de aire a los pontones son importante, y viene determinada por las
pruebas en el túnel del viento. Es necesario conseguir que el flujo de aire entre lo más equilibrado
posible por las entradas, si no los radiadores no podrán trabajar con eficacia. El Prost AP01 de
1998 tenía unos bordes muy afilados como entradas de aire. Además el AP01 contaba con unas
protuberancias aerodinámicas justo delante de los pontones que tenían una doble función
aerodinámica, ya que ayudaban a que entrara aire a los radiadores y canalizaban el flujo por debajo
del carro, creado del que era originalmente el equipo Ligier, el equipo Pros dirigido por el cuádruple
campeón del mundo Alain Prost, se encuentra en una nueva fábrica situada en Guyoncourt, cerca de
parís, tras abondonar las instalaciones de Magny-Cours. El diseñador jefe del equipo es Loic Bigois.
Dentro de los pontones se encuentran los conductos de fibra de carbono de los radiadores. Su
forma, que también determina en el túnel de viento, debe ser tal que el flujo de aire no se
revolucione en su paso hasta los radiadores. Si se vuelve turbulento, no habrá una distribución
equitativa de aire refrigerante en cada radiador y el motor tenderá a recalentarse.
Aumentar el tamaño de los radiadores para compensar las deficiencias de sus conductos no es
una medida aceptable, ya que la mayor área del radiador aumentaría no sólo el peso sino también
la resistencia aerodinámica.
Cuando el piloto se sale de la pista y rueda por las escapatorias de gravilla, gran parte de ésta
entra en los conductos de los radiadores. Si el piloto tiene la suerte de poder volver al circuito, le
espera una sorpresa. La primera vez que pise el pedal del freno con fuerza, un torrente de gravilla
saldrá despedido por delante de él.
Conseguir que entre el flujo de aire equilibrado por la toma de aire de encima del piloto, con lo
que el motor funcione a su máximo rendimiento, es un objetivo primordial. Así, se llevan a cabo
muchos intentos con el fin de canalizar el aire turbulento de alrededor del casco del piloto e
introducirlo limpiamente para la toma.
La reducción de los niveles de turbulencia alrededor del casco se ha convertido en una prioridad
en los últimos años, no sólo porque puede mejorar las prestaciones del motor sino porque los
efectos del aire pueden afectar la concentración del propio piloto. Varios <<alerones>> y otras
soluciones esculpidas sobre los cascos, todas perfeccionadas en el túnel de viento, reducen ahora la
tendencia de sustentación a altas velocidades a la vez que suavizan el aire alrededor del mismo.
El flujo del aire alrededor de las llantas traseras debe ser controlado cuidadosamente para que el
carro sea aerodinámicamente eficaz. En la parte posterior del carro, los lados se curvan al estilo de
una botella de Coca-Cola con el fin de controlar el flujo del aire alrededor de las superficies internas
de las llantas traseras y así reducir la resistencia y maximizar la eficacia del difusor.
Unas extensiones del las secciones traseras posteriores de los pontones (puentes de tablas )
generan apoyo aerodinámico adicional y colaboran a que el flujo de aire pase por las llantas
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
traseras. Estos deflectores se denominan <<flip-ups>>.
En 1997 la mayoría de los carros contaban con unos pequeños alerones montados en los lados
externos de las derivas de los alerones traseros, justo por delante de las llantas traseras, con el fin
de generar más apoyo aerodinámico. De hecho, tan sólo Williams y Stewart no usaron alerones
ese año. Para 1998 fueron prohibidos por la FIA, por lo que los <<flip-ups>> se convirtieron en la
única alternativa.
El alerón trasero es capaz de generar un tercio del apoyo aerodinámico total de un carro. Puede
estar compuesto de múltiples apéndices (en 1997 algunos carros usaban hasta cuatro tipos) o puede
tener una configuración mínima.
Esto se debe a que la cantidad de apoyo aerodinámica varía de un circuito a otro, y se debe
encontrar un equilibrio entre apoyo y velocidad punta. El Gran Premio de Alemania, que tiene lugar
en el ultra rápido circuito de Hockenheim, donde los carros pasan el 75% de una vuelta con el
acelerador al máximo, se ven normalmente alerones muy sencillos con el fin de alcanzar la mayor
velocidad.
Sin embargo, la superior potencia de algunos motores permite a ciertos equipos montar alerones
más complejos para así incrementar la velocidad de paso por curva sin perder velocidad de punta.
Todos los elementos del alerón son regulables. La configuración habitual es de dos alas, y la
inferior cuenta con un diedro negativo en algunos carros. El ala inferior puede influenciar
directamente la eficacia del difusor trasero y el fondo plano, por lo que los aerodinamistas deben
intentar comprender la compleja relación entre ellos.
Al igual que las derivas del alerón delantero, las del alerón trasero canalizan el flujo del aire para
asegurar la mayor eficacia, evitando que se pierda por los bordes y reduzca su efectividad. Sin
embargo, en este caso, también sirven como medio para montar elementos del alerón.. Algunos
carros cuentan con una sola columna para sujetar el alerón trasero, por ejemplo el Ferrari y el
Benetton de 1998, mientras que otros utilizan varias.
En algunos carros, las derivas son planas, mientras que en otros tienen las formas muy definidas.
En todos los casos, están compuestas de dos capas de fibra de carbono y una central de aluminio.
Otro factor muy importante, y más moderna herramienta, que es necesaria para desarrollar de
una forma exacta y científica la aerodinámica en los vehículos de carrera, es el túnel de viento. En
este caso se conocerán las características de un túnel de viento usado por una de los más famosos
constructores de autos de la F1, como lo es la Escudería Ferrari.
En Fórmula Uno, la potencia y la aerodinámica lo son todo. Una empuja el coche a través del
aire, la otra te permite un mejor uso de esa potencia. Y mientras que los hombres del motor emplean
su tiempo en el banco de pruebas, los especialistas en aerodinámica pasan su tiempo en la pizarra y
en el túnel de viento.
Un túnel de viento simula el paso de un coche por la pista, pasando a través del aire.
Normalmente el coche está representado por un modelo a media o tercera escala sobre una pista
que va dando vueltas, simulando la superficie de una pista real, y el paso del aire es simulado con
unos enormes ventiladores. El modelo puede ser fácilmente modificado para proporcionar diferentes
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
soluciones aerodinámicas, mientras que los censores muestran a los especialistas en aerodinámica
los efectos de esos cambios.
Cada equipo pasa una enorme cantidad de tiempo en el túnel de viento. En algunos casos, los
equipos tienen sus propios túneles de viento, pero aquellos que no lo tienen, se ven obligados a
alquilarlo. La investigación es continúa, así que la primera solución es la mejor.
El más moderno túnel de viento en Fórmula Uno está a punto de entrar en funcionamiento. Ha
costado 12 millones de dólares y ha sido diseñado por uno de los mejores arquitectos del mundo,
Renzo Piano. Es una parte espectacular de lo que él llama la ciudad de la investigación de Ferrari,
un nuevo departamento técnico que será construido en la base del equipo en Maranello.
Lo más extraordinario de este nuevo túnel de viento es que ha sido construido enteramente para
su utilización por parte del equipo de Gran Premio. Aunque el departamento de coches de carretera
utiliza túneles de viento, tienen parámetros diferentes a los del equipo de carreras, así que este
nuevo elemento está dedicado solamente al equipo de carreras. No sólo se puede utilizar el nuevo
túnel para modelos a media escala que trabajan a velocidades de más de 250 km./h, sino que
también se pueden meter modelos de tamaño normal, que trabajan a velocidades de más de 150
km./h con la pista rodante.
El nuevo túnel es capaz de medir más de 200 presiones o fuerzas. Y lo que es igual de
importante, es que se puede simular un coche tomando una curva, así que el movimiento, guiñada,
grado de inclinación, dirección y movimiento dinámico pueden ser también medidos. Esto se puede
hacer electrónicamente, sin parar el túnel de viento. También se puede controlar la climatización
para permitir que la temperatura del aire pueda ser controlada hasta en más de 0,5 grados
centígrados.
BIBLIOGRAFÍA
- Allem, J. (2002). La Aerodinámica en el Equipo Deportivo, el Entretenimiento y las Máquinas de
Carreras. Ed. Willier. Madrid.
- Buchaman, C. D. (1998). Mixed Blessing: The Motor in Britain. Hill. Barcelona.
- Georgano, G. N. (1985). Cars: Early and Vintage. Grange- Universal. Madrid.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
EVOLUCIÓN DE LA CIENCIA
AUTOR: AITANA SÁNCHEZ GARCÍA
Resumen: A continuación se expondrá cómo ha ido evolucionando la Ciencia, desde sus orígenes
hasta la actualidad, destacando el papel que la Matemática ha jugado en ello, e indicando también
de qué manera han intervenido los grandes matemáticos de la Historia.
Introducción
Aunque los mitos no tienen necesariamente que ser falsos, a menudo se les asigna esa
connotación. Aquí se utiliza el término en su sentido clásico: como sinónimo de "leyenda", "fábula",
"ficción", no en el más reciente, que lo deja reducido a un sinónimo innecesario de "famoso".
La Ciencia, con mayúscula, siempre se ha dirigido (al menos en teoría) al descubrimiento de
la verdad. Puede parecer, pues, sorprendente que se afirme que existen mitos en la Ciencia, pero el
hombre tiene una capacidad inagotable para crearlos y aferrarse a ellos. Aunque, si vamos a ser
estrictos, las ideas a las que hace referencia este artículo no son propiamente mitos científicos, sino
que han surgido en otras disciplinas situadas en su periferia, como la Historia o la Filosofía de la
Ciencia.
El mito del Progreso Indefinido afirma que, una vez que hemos entrado en la era de la
Ciencia, el desarrollo científico no puede volver atrás. Los inventos y los descubrimientos se irán
sucediendo a un ritmo siempre acelerado, por lo que la curva del desarrollo científico se aproximaría
a una exponencial.
Antes de abordar esta teoría y tratar de refutarla, vamos a dedicar unos momentos de
atención a otros mitos relacionados que sobreviven con insistencia a pesar de su evidente y
flagrante falsedad.
Orígenes de la ciencia
Los esfuerzos para sistematizar el conocimiento se remontan a los tiempos prehistóricos,
como atestiguan los dibujos que los pueblos del paleolítico pintaban en las paredes de las cuevas,
los datos numéricos grabados en hueso o piedra o los objetos fabricados por las civilizaciones del
neolítico. Los testimonios escritos más antiguos de investigaciones protocientíficas proceden de las
culturas mesopotámicas, y corresponden a listas de observaciones astronómicas, sustancias
químicas o síntomas de enfermedades —además de numerosas tablas matemáticas— inscritas en
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
caracteres cuneiformes sobre tablillas de arcilla. Otras tablillas que datan aproximadamente del
2000 a.C. demuestran que los babilonios conocían el teorema de Pitágoras, resolvían ecuaciones
cuadráticas y habían desarrollado un sistema sexagesimal de medidas (basado en el número 60)
del que se derivan las unidades modernas para tiempos y ángulos (véase Sistema numérico;
Numeración).
Orígenes de la teoría científica. Los primeros matemáticos.
El conocimiento científico en Egipto y Mesopotamia era sobre todo de naturaleza práctica,
sin demasiada organización racional. Uno de los primeros sabios griegos que buscó las causas
fundamentales de los fenómenos naturales fue el filósofo Tales de Mileto, en el siglo VI a.C., quien
introdujo el concepto de que la Tierra era un disco plano que flotaba en el elemento universal, el
agua. El matemático y filósofo Pitágoras, de época posterior, estableció una escuela de
pensamiento en la que las matemáticas se convirtieron en una disciplina fundamental para toda la
investigación científica. Los eruditos pitagóricos postulaban una Tierra esférica que se movía en
una órbita circular alrededor de un fuego central. En Atenas, en el siglo IV a.C., la filosofía natural
jónica y la ciencia matemática pitagórica se combinaron para producir las síntesis formadas por las
filosofías lógicas de Platón y Aristóteles. En la Academia de Platón se subrayaba el razonamiento
deductivo y la representación matemática; en el Liceo de Aristóteles primaban el razonamiento
inductivo y la descripción cualitativa. La interacción entre estos dos enfoques de la ciencia ha
llevado a la mayoría de los avances posteriores.
En esa época el sistema de Tolomeo —una teoría geocéntrica de los planetas (con centro
en la Tierra) propuesta por el astrónomo Claudio Tolomeo— y las obras médicas del filósofo y
médico Galeno se convirtieron en tratados científicos de referencia para la era posterior. Un siglo
después surgió la nueva ciencia experimental de la alquimia a partir de la práctica de la metalurgia.
Sin embargo, por el año 300 la alquimia fue adquiriendo un tinte de secretismo y simbolismo que
redujo los avances que sus experimentos podrían haber proporcionado a la ciencia.
En el siglo XIII la recuperación de obras científicas de la antigüedad en las universidades
europeas llevó a una controversia sobre el método científico. Los llamados realistas apoyaban el
enfoque platónico, mientras que los nominalistas preferían la visión de Aristóteles. En las
universidades de Oxford y París estas discusiones llevaron a descubrimientos de óptica y
cinemática que prepararon el camino para Galileo y para el astrónomo alemán Johannes Kepler.
La gran epidemia de peste y la guerra de los Cien Años interrumpieron el avance científico
durante más de un siglo, pero en el siglo XVI la recuperación ya estaba plenamente en marcha. En
1543 el astrónomo polaco Nicolás Copérnico publicó De revolutionibus orbium caelestium (Sobre
las revoluciones de los cuerpos celestes), que conmocionó la astronomía. Otra obra publicada ese
mismo año, De corporis humani fabrica (Sobre la estructura del cuerpo humano), del anatomista
belga Andrés Vesalio, corrigió y modernizó las enseñanzas anatómicas de Galeno y llevó al
descubrimiento de la circulación de la sangre. Dos años después, el libro Ars magna (Gran arte),
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
del matemático, físico y astrólogo italiano Gerolamo Cardano, inició el periodo moderno en el
álgebra con la solución de ecuaciones de tercer y cuarto grado.
La ciencia moderna a través de la Matemática
Esencialmente, los métodos y resultados científicos modernos aparecieron en el siglo XVII
gracias al éxito de Galileo al combinar las funciones de erudito y artesano. A los métodos antiguos
de inducción y deducción, Galileo añadió la verificación sistemática a través de experimentos
planificados, en los que empleó instrumentos científicos de invención reciente como el telescopio,
el microscopio o el termómetro. A finales del siglo XVII se amplió la experimentación: el
matemático y físico Evangelista Torricelli empleó el barómetro; el matemático, físico y astrónomo
holandés Christiaan Huygens usó el reloj de péndulo; el físico y químico británico Robert Boyle y el
físico alemán Otto von Guericke utilizaron la bomba de vacío.
La culminación de esos esfuerzos fue la ley de la gravitación universal, expuesta en 1687
por el matemático y físico británico Isaac Newton en su obra Philosophiae naturalis principia
mathematica (Principios matemáticos de la filosofía natural). Al mismo tiempo, la invención del
cálculo infinitesimal por parte de Newton y del filósofo y matemático alemán Gottfried Wilhelm
Leibniz sentó las bases para alcanzar el nivel actual de ciencia y matemáticas.
Los descubrimientos científicos de Newton y el sistema filosófico del matemático y filósofo
francés René Descartes dieron paso a la ciencia materialista del siglo XVIII, que trataba de explicar
los procesos vitales a partir de su base físico-química. La confianza en la actitud científica influyó
también en las ciencias sociales e inspiró el llamado Siglo de las Luces, que culminó en la
Revolución Francesa de 1789. El químico francés Antoine Laurent de Lavoisier publicó el Tratado
elemental de química en 1789 e inició así la revolución de la química cuantitativa.
Los avances científicos del siglo XVII prepararon el camino para el siguiente siglo, llamado a
veces ‘siglo de la correlación’ por las amplias generalizaciones que tuvieron lugar en la ciencia.
Entre ellas figuran la teoría atómica de la materia postulada por el químico y físico británico John
Dalton, las teorías electromagnéticas de Michael Faraday y James Clerk Maxwell, también
británicos, o la ley de la conservación de la energía, enunciada por el físico británico James
Prescott Joule y otros científicos.
La teoría biológica de alcance más global fue la teoría de la evolución, propuesta por
Charles Darwin en su libro El origen de las especies, publicado en 1859, que provocó una
polémica en la sociedad —no sólo en los ámbitos científicos— tan grande como la obra de
Copérnico. Sin embargo, al empezar el siglo XX el concepto de evolución ya se aceptaba de forma
generalizada, aunque su mecanismo genético siguió siendo discutido.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Mientras la biología adquiría una base más firme, la física se vio sacudida por las
inesperadas consecuencias de la teoría cuántica y la de la relatividad. En 1927 el físico alemán
Werner Heisenberg formuló el llamado principio de incertidumbre, que afirma que existen límites a
la precisión con que pueden determinarse a escala subatómica las coordenadas de un suceso
dado. En otras palabras, el principio afirmaba la imposibilidad de predecir con precisión que una
partícula, por ejemplo un electrón, estará en un lugar determinado en un momento determinado y
con una velocidad determinada. La mecánica cuántica no opera con datos exactos, sino con
deducciones estadísticas relativas a un gran número de sucesos individuales.
La ciencia en España y Latinoamérica
Los comienzos de la ciencia española se remontan (dejando aparte el primitivo saber de san
Isidoro de Sevilla) a la civilización hispanoárabe y sobre todo a la gran escuela astronómica de
Toledo del siglo XI encabezada por al-Zarqalluh (conocido por Azarquiel en la España medieval).
Después de la conquista de la ciudad de Toledo por el rey Alfonso VI en 1085, comenzó un
movimiento de traducción científica del árabe al latín, promovido por el arzobispo Raimundo de
Toledo (véase Escuela de traductores de Toledo). Este movimiento continuó bajo el patrocinio de
Alfonso X el Sabio y los astrónomos de su corte (entre los que destacó el judío Isaac ibn Cid); su
trabajo quedó reflejado en los Libros del saber de astronomía y las Tablas alfonsíes, tablas
astronómicas que sustituyeron en los centros científicos de Europa a las renombradas Tablas
toledanas de al-Zarqalluh.
En la primera mitad del siglo XVI España participó en el movimiento de renovación científica
europea, en el que intervinieron de forma destacada Juan Valverde de Amusco, seguidor de
Andrés Vesalio, y la escuela de los calculatores —promotores de la renovación matemática y
física— a la que pertenecían Pedro Ciruelo, Juan de Celaya y Domingo de Soto. El descubrimiento
de América estimuló avances, tanto en historia natural (con José de Acosta y Gonzalo Fernández
de Oviedo) como en náutica (con Pedro de Medina, Martín Cortés y Alonso de Santa Cruz).
Después de que Felipe II prohibiera el estudio en el extranjero, la ciencia española entró en
una fase de decadencia y neoescolasticismo de la cual no saldría hasta finales del siglo XVII, con
el trabajo de los llamados novatores. Este grupo promovía semiclandestinamente las nuevas ideas
de Newton y William Harvey, y a él pertenecían, entre otros, Juan Caramuel y Lobkowitz, Juan de
Cabriada y Antonio Hugo de Omerique, cuya obra Analysis Geometrica (1698) atrajo el interés de
Newton. En la misma época desde Nueva España, Diego Rodríguez comentó los hallazgos de
Galileo.
El sistema newtoniano, todavía prohibido por la Iglesia, se difundió ampliamente en el
mundo hispano del siglo XVIII, a partir de Jorge Juan y Antonio de Ulloa (socios del francés
Charles de La Condamine en su expedición geodésica a los Andes) en la península Ibérica, José
Celestino Mutis en Nueva Granada y Cosme Bueno en Perú.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
El otro pilar de la modernización científica de la Ilustración fue Linneo, cuya nomenclatura
binomial fascinó a toda una generación de botánicos europeos, estimulando nuevas exploraciones.
En España, Miguel Barnades y más tarde sus discípulos Casimiro Gómez Ortega y Antonio Palau
Verdera enseñaron la nueva sistemática botánica. El siglo XVIII fue la época de las expediciones
botánicas y científicas al Nuevo Mundo, entre las que destacaron la de Mutis (corresponsal de
Linneo) a Nueva Granada, la de Hipólito Ruiz y José Pavón a Perú, la de José Mariano Mociño y
Martín de Sessé a Nueva España, y la de Alejandro Malaspina alrededor del globo. También en las
colonias la ciencia floreció en instituciones como el Real Seminario de Minas de México, el
Observatorio Astronómico de Bogotá o el Anfiteatro Anatómico de Lima.
Las Guerras Napoleónicas y de Independencia interrumpieron el avance de la ciencia tanto
en la península Ibérica como en Latinoamérica. En Espãna la recuperación fue muy lenta; la vida
científica desapareció prácticamente hasta la entrada de nuevas ideas —el darwinismo en primer
lugar— como secuela de la Revolución de 1868 y la I República. En esta renovación científica
desempeñó un papel fundamental el neurólogo Santiago Ramón y Cajal, primer premio Nobel
español (en 1906 compartió el Premio Nobel de Fisiología y Medicina con el médico italiano
Camillo Golgi por la estructura del sistema nervioso); también intervinieron José Rodríguez de
Carracido en química, Augusto González de Linares en biología, José Macpherson en geología y
Zoel García Galdeano en matemáticas. En América Latina pueden referirse como representativas
de la renovación científica del siglo XIX una serie de instituciones positivistas: en México, la
Sociedad de Historia Natural (1868), la Comisión Geográfico-Exploradora (1877) o la Comisión
Geológica (1886); en Argentina, el Observatorio Astronómico (1882), el Museo de Ciencias
Naturales (1884), la Sociedad Científica Argentina (1872), el Observatorio de Córdoba (1870),
dirigido por el estadounidense Benjamin Gould, y la Academia de las Ciencias de Córdoba (1874);
por último en Brasil, la Escuela de Minas de Ouro Preto, el Servicio Geológico de São Paulo y el
Observatorio Nacional de Río de Janeiro.
Gracias al empuje que el Premio Nobel de Ramón y Cajal dio a la ciencia en general, en
1907 el gobierno español estableció la Junta para la Ampliación de Estudios para fomentar el
desarrollo de la ciencia, creando becas para el extranjero y, algo más tarde, una serie de
laboratorios. Cuando Pío del Río Hortega se instaló en el laboratorio de histología establecido por
la Junta en la Residencia de Estudiantes de Madrid, se convirtió en el primer investigador
profesional en la historia de la ciencia española. El centro de innovación en ciencias físicas fue el
Instituto Nacional de Física y Química de Blas Cabrera, que a finales de la década de 1920 recibió
una beca de la Fundación Rockefeller para construir un nuevo y moderno edificio. Allí trabajaron
Miguel Angel Catalán, que realizó importantes investigaciones en espectrografía, y el químico
Enrique Moles. En matemáticas el centro innovador fue el Laboratorio Matemático de Julio Rey
Pastor, cuyos discípulos ocuparon prácticamente la totalidad de cátedras de matemáticas de
España. Muchos de ellos fueron becados en Italia con Tullio Levi-Civita, Vito Volterra, Federigo
Enriques y otros miembros de la gran escuela italiana, cuyo manejo del cálculo tensorial les había
asociado con la relatividad general de Einstein. Rey Pastor fue un impulsor de la visita que Einstein
realizó a España en 1923, en la que el físico alemán fue recibido sobre todo por matemáticos ya
que la física estaba mucho menos desarrollada. En biomedicina, además de la neurohistología,
adquirió relevancia la fisiología, dividida en dos grupos: el de Madrid, regido por Juan Negrín, quien
formó al futuro premio Nobel Severo Ochoa, y el de Barcelona, dirigido por August Pi i Sunyer.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Durante la década de 1920 ambos grupos trabajaron en la acción química de las hormonas, sobre
todo de la adrenalina.
En América Latina la fisiología, al igual que en España, ocupaba el liderazgo en las ciencias
biomédicas. Los argentinos Bernardo Houssay y Luis Leloir ganaron el Premio Nobel en 1947 y
1970 respectivamente; fueron los primeros otorgados a científicos latinoamericanos por trabajos
bioquímicos. En física, distintos países consideraron que la física nuclear era el camino más
práctico hacia la modernización científica, debido a la facilidad para obtener aceleradores de
partículas de países europeos o de Norteamérica. No obstante, la física nuclear comenzó por su
mínimo coste con el estudio de los rayos cósmicos. En la década de 1930, los brasileños Marcello
Damy de Souza y Paulus Aulus Pompéia descubrieron el componente penetrante o ‘duro’ de los
rayos cósmicos; en 1947 César Lattes, investigando en el Laboratorio de Física Cósmica de
Chacaltaya (Bolivia), confirmó la existencia de los piones (véase Física: Partículas elementales).
También la genética resultó ser un campo de investigación fructífero en América Latina. En 1941 el
genetista estadounidense de origen ucraniano Theodosius Dobzhansky emprendió el primero de
sus viajes a Brasil donde formó a toda una generación de genetistas brasileños en la genética de
poblaciones. Su objetivo era estudiar las poblaciones naturales de Drosophila en climas tropicales
para compararlas con las poblaciones de regiones templadas que ya había investigado. Descubrió
que las poblaciones tropicales estaban dotadas de más diversidad genética que las templadas y,
por lo tanto, pudieron ocupar más ‘nichos’ ecológicos que éstas.
Tanto en España como en América Latina la ciencia del siglo XX ha tenido dificultades con
los regímenes autoritarios. En la década de 1960 se produjo en Latinoamérica la llamada ‘fuga de
cerebros’: en Argentina, por ejemplo, la Facultad de Ciencias Exactas de la Universidad de Buenos
Aires perdió más del 70% del profesorado debido a las imposiciones del gobierno contra las
universidades. Bajo la dictadura militar de la década de1980, los generales expulsaron de este
país a los psicoanalistas, y el gobierno apoyó una campaña contra la ‘matemática nueva’ en
nombre de una idea mal entendida de la matemática clásica. En Brasil, bajo la dictadura militar de
la misma época, un ministro fomentó la dimisión de toda una generación de parasitólogos del
Instituto Oswaldo Cruz, dando lugar a lo que se llamó ‘la masacre de Manguinhos’.
Comunicación científica
A lo largo de la historia el conocimiento científico se ha transmitido fundamentalmente a
través de documentos escritos, algunos de los cuales tienen una antigüedad de más de 4.000
años. Sin embargo, de la antigua Grecia no se conserva ninguna obra científica sustancial del
periodo anterior a los Elementos del geómetra Euclides (alrededor del 300 a.C.). De los tratados
posteriores escritos por científicos griegos destacados sólo se conservan aproximadamente la
mitad. Algunos están en griego, mientras que en otros casos se trata de traducciones realizadas
por eruditos árabes en la edad media. Las escuelas y universidades medievales fueron los
principales responsables de la conservación de estas obras y del fomento de la actividad científica.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Sin embargo, desde el renacimiento esta labor ha sido compartida por las sociedades
científicas; la más antigua de ellas, que todavía existe, es la Accademia dei Lincei (a la que
perteneció Galileo), fundada en 1603 para promover el estudio de las ciencias matemáticas, físicas
y naturales. Ese mismo siglo, el apoyo de los gobiernos a la ciencia llevó a la fundación de la Royal
Society en Londres (1662) y la Académie des Sciences en París (1666). Estas dos organizaciones
iniciaron la publicación de revistas científicas, la primera con el título de Philosophical Transactions
y la segunda con el de Mémoires.
Durante el siglo XVIII, otras naciones establecieron academias de ciencias. En Estados
Unidos, un club organizado en 1727 por Benjamin Franklin se convirtió en 1769 en la American
Philosophical Society. En 1780 se constituyó la American Academy of Arts and Sciences, fundada
por John Adams, quien fue el segundo presidente estadounidense en 1797. En 1831 se reunió por
primera vez la British Association for the Advancement of Science, seguida en 1848 por la
American Association for the Advancement of Science y en 1872 por la Association Française pour
l’Avancement des Sciences. Estos organismos nacionales editan respectivamente las
publicaciones Nature, Science y Compte-Rendus. El número de publicaciones científicas creció tan
rápidamente en los primeros años del siglo XX que el catálogo Lista mundial de publicaciones
científicas periódicas editadas en los años 1900-1933 ya incluía unas 36.000 entradas en 18
idiomas. Muchas de estas publicaciones son editadas por sociedades especializadas dedicadas a
ciencias concretas.
Desde finales del siglo XIX la comunicación entre los científicos se ha visto facilitada por el
establecimiento de organizaciones internacionales, como la Oficina Internacional de Pesos y
Medidas (1873) o el Consejo Internacional de Investigación (1919). Este último es una federación
científica subdividida en uniones internacionales para cada una de las ciencias. Las uniones
celebran congresos internacionales cada pocos años, cuyos anales suelen publicarse. Además de
las organizaciones científicas nacionales e internacionales, muchas grandes empresas industriales
tienen departamentos de investigación, de los que algunos publican de forma regular descripciones
del trabajo realizado o envían informes a las oficinas estatales de patentes, que a su vez editan
resúmenes en boletines de publicación periódica.
Campos de la ciencia
Originalmente el conocimiento de la naturaleza era en gran medida la observación e
interrelación de todas las experiencias, sin establecer divisiones. Los eruditos pitagóricos sólo
distinguían cuatro ciencias: aritmética, geometría, música y astronomía. En la época de Aristóteles,
sin embargo, ya se reconocían otros campos: mecánica, óptica, física, meteorología, zoología y
botánica. La química permaneció fuera de la corriente principal de la ciencia hasta la época de
Robert Boyle, en el siglo XVII, y la geología sólo alcanzó la categoría de ciencia en el siglo XVIII.
Para entonces el estudio del calor, el magnetismo y la electricidad se había convertido en una
parte de la física. Durante el siglo XIX los científicos reconocieron que las matemáticas puras se
distinguían de las otras ciencias por ser una lógica de relaciones cuya estructura no depende de
las leyes de la naturaleza. Sin embargo, su aplicación a la elaboración de teorías científicas ha
hecho que se las siga clasificando como ciencia.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Las ciencias naturales puras suelen dividirse en ciencias físicas y químicas, y ciencias de la
vida y de la Tierra. Las principales ramas del primer grupo son la física, la astronomía y la química,
que a su vez se pueden subdividir en campos como la mecánica o la cosmología. Entre las
ciencias de la vida se encuentran la botánica y la zoología; algunas subdivisiones de estas ciencias
son la fisiología, la anatomía o la microbiología. La geología es una rama de las ciencias de la
Tierra.
Sin embargo, todas las clasificaciones de las ciencias puras son arbitrarias. En las
formulaciones de leyes científicas generales se reconocen vínculos que relacionan las ciencias
entre sí. Se considera que estas relaciones son responsables de gran parte del progreso actual en
varios campos de investigación especializados, como la biología molecular y la genética. Han
surgido varias ciencias interdisciplinares, como la bioquímica, la biofísica, las biomatemáticas o la
bioingeniería, en las que se explican los procesos vitales a partir de principios físico-químicos. Los
bioquímicos, por ejemplo, sintetizaron el ácido desoxirribonucleico (ADN); la cooperación de
biólogos y físicos llevó a la invención del microscopio electrónico, que permite el estudio de
estructuras poco mayores que un átomo. Se prevé que la aplicación de estos métodos
interdisciplinares produzca también resultados significativos en el terreno de las ciencias sociales y
las ciencias de la conducta.
Las ciencias aplicadas incluyen campos como la aeronáutica, la electrónica, la ingeniería y la
metalurgia —ciencias físicas aplicadas— o la agronomía y la medicina —ciencias biológicas
aplicadas. También en este caso existe un solapamiento entre las ramas. Por ejemplo, la
cooperación entre la iatrofísica (una rama de la investigación médica basada en principios de la
física) y la bioingeniería llevó al desarrollo de la bomba corazón-pulmón empleada en la cirugía a
corazón abierto y al diseño de órganos artificiales como cavidades y válvulas cardiacas, riñones,
vasos sanguíneos o la cadena de huesecillos del oído interno. Este tipo de avances suelen deberse
a las investigaciones de especialistas procedentes de diversas ciencias, tanto puras como aplicadas.
La relación entre teoría y práctica es tan importante para el avance de la ciencia en nuestros días
como en la época de Galileo.
Mitos modernos de la Historia de la Ciencia y de la Matemática
Consideraremos las siguientes afirmaciones:
•
En la Antigüedad y en la Edad Media se creía que la Tierra es plana. Colón demostró que es
redonda.
En realidad, la mayor parte de las personas informadas saben perfectamente que este lugar
común es falso, pero está muy extendido entre lo que podríamos llamar el hombre de la calle.
Enfrentándose a esta idea preconcebida, Isaac Asimov escribió: Lo que demostró Colón es
que no importa cuán equivocado estés, mientras tengas suerte.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Como todas las personas educadas de la Edad Media y de la Antigüedad, Colón sabía que la
Tierra era redonda. Pero, al revés que los geógrafos portugueses, que estimaban su
circunferencia en unos 40000 km, él creía que sólo medía unos 25000 (naturalmente, no
medían en km). Por eso pensó que, si las Indias se encuentran a unos 20000 km de Europa
Occidental por el camino del este, por el del oeste debían estar mucho más cerca, a unos
5000 km. Los portugueses rechazaron su oferta porque un viaje de 20000 km por mar abierto
(con las cifras que ellos manejaban) estaba fuera del alcance de la náutica de la época. A
pesar de todo, Colón lo intentó con ayuda de España, y tuvo la suerte de encontrar un
continente desconocido a unos 5000 km de su punto de partida. Él siempre creyó haber
demostrado sus teorías, pero los que tenían razón eran los portugueses.
La redondez de la Tierra era ya conocida por los griegos, varios siglos antes de Cristo.
Aristóteles (384-322 a.C.) resumió los argumentos principales que la demostraban:
•
Cuando un barco se aleja en cualquier dirección, lo primero que desaparece es el
casco, luego las velas. Esto demuestra que la superficie del mar es curva. Además, el
efecto no depende de la dirección del barco, así que el mar (y por tanto la Tierra) tiene
la misma curvatura en todas direcciones. La única figura que posee esa propiedad es
la esfera. Luego la Tierra es esférica.
•
Durante un eclipse de luna, la Tierra se interpone entre el sol y la luna, arrojando su
sombra sobre ésta. La forma de la sombra es siempre circular, cualquiera que sea la
posición del sol y de la luna en el momento del eclipse. Pero la esfera es la única figura
que arroja siempre una sombra circular en cualquier dirección. Luego la Tierra es una
esfera.
•
Al viajar en dirección hacia el norte o al sur, las constelaciones se desplazan. Algunas
desaparecen a nuestras espaldas, otras nuevas surgen ante nosotros. Esto indica que
la superficie de la Tierra es curva. No demuestra que sea una esfera, pero la unión de
los tres argumentos tiene una fuerza de convicción abrumadora.
Eratóstenes de Cirene (276-194 a.C.) fue aún más lejos. Basándose en la distinta inclinación
de los rayos del sol durante el solsticio de verano en dos localidades de Egipto (Siena y
Alejandría) dedujo la longitud de la circunferencia de la Tierra, estimándola en unos 25000
estadios (de 39000 a 45000 km). El valor real es próximo a los 40000 km. El cálculo de
Eratóstenes fue la causa de que los geógrafos portugueses rechazaran los planes de Colón.
Sólo la gente ignorante creía, durante la Edad Media, la leyenda de que la Tierra es plana y
los barcos que llegaran a su extremo se caerían. En la Divina Comedia, Dante da por
supuesta la redondez de la Tierra. Coloca al Purgatorio en una isla situada en las antípodas
de Jerusalén (viene a caer en medio del Pacífico, un poco al sur de la islas Tubuai).
El infierno, en cambio, es un cono que penetra hasta el centro de la Tierra, que coincide con
su vértice. Al llegar allí, Dante introduce un sorprendente efecto de ciencia-ficción: Para pasar
al otro hemisferio, Dante y Virgilio deben descender agarrándose a los pelos de Satanás, que
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
está hundido en el hielo en el mismísimo centro de la Tierra. Pero en el momento de pasar
por él, tienen que darse la vuelta, porque la dirección de la gravedad se ha invertido.
•
En la Antigüedad y en la Edad Media creían que la Tierra es muy grande. La Astronomía
moderna ha demostrado que es infinitesimal, comparada con el universo.
Esta leyenda está más extendida que la anterior, y muchas personas educadas la creen. En
realidad, es tan falsa como la otra.
Dos siglos antes de Cristo, Arquímedes (287-212 a.C.) escribió un libro,
El Arenario, en el que describe su intento de calcular cuestiones tan modernas como el
número de partículas del universo y la distancia de las estrellas (en su tiempo se creía que
todas las estrellas fijas estaban situadas a la misma distancia de nosotros). Para trabajar con
números tan grandes, se vio obligado a idear su propio sistema de numeración, detallado en
ese libro. Transformado a las medidas que hoy utilizamos, su resultado es asombrosamente
exacto: las estrellas estarían a una distancia aproximada de un año-luz. Hoy sabemos que la
más próxima (alfa-centauro C) se encuentra a 4,27 años-luz, lo que indica que Arquímedes,
en su primer intento, acertó al menos el orden de magnitud.
Los cálculos de Arquímedes eran conocimiento común de todos los eruditos de la antigüedad.
Claudio Ptolomeo (100-170) escribió en su He Mathematik Syntaxis (más conocido por su
nombre árabe, Almagesto): La Tierra, en relación con la distancia de las estrellas fijas, no
tiene tamaño apreciable y debe considerarse como un punto matemático (Libro I, Capítulo 5).
Recuérdese que el Almagesto fue el texto estándar de Astronomía durante toda la Edad
Media. El mito, por tanto, cae por tierra.
•
En la Antigüedad y en la Edad Media creían que la Tierra está en el centro del universo y, por
tanto, que es el astro más importante del cosmos. Copérnico, al quitarle el lugar central, le
quitó también su importancia.
Este mito ha alcanzado una propagación casi universal, incluso en ambientes científicos e
históricos, a pesar de que es tan falso como los anteriores. No existen referencias antiguas o
medievales en las que pueda basarse. Por el contrario, el desprecio de la Tierra y de las
actividades de sus habitantes, al considerarla en el ámbito más extenso del cosmos, es uno
de los lugares comunes de la literatura de aquellas épocas. Citemos algunos ejemplos:
•
Cicerón, en su Somnium Scipionis, hace emprender a Escipión un viaje por las esferas
celestes. Al mirar hacia la Tierra desde las alturas y verla tan pequeña (ver el mito
anterior), Escipión se asombra por la importancia que se da en aquella mota a cosas
tan ridículas como el Imperio Romano (que ni siquiera es visible desde donde él está).
•
Lucano, en La Farsalia, presenta una situación parecida.
•
Dante, en la Divina Comedia, realiza también un viaje por las esferas celestes de
Ptolomeo, en las que sitúa el Paraíso. Al llegar a la esfera de Saturno, se vuelve a
mirar a la Tierra, que como de costumbre le parece pequeñísima y digna de
menosprecio, que expresa en las palabras (Paradiso, 22:133-135):
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Col viso ritornai per tutte quante
le sette spere, e vidi questo globo
tal, ch'io sorrisi del suo vil sembiante.
Dante presenta en Paradiso una estructura dual del cosmos. En el mundo material,
formado por las nueve esferas ptolemaicas, un astro es tanto menos importante cuanto
más cerca del centro se encuentra. La Tierra, por consiguiente, ocupa el lugar ínfimo
en razón de su posición (nótese que esta interpretación es justamente la opuesta del
mito). En el mundo dual del empíreo (la morada de Dios) el centro (Dios) es lo más
importante, y las nueve esferas que le rodean (correspondientes a las nueve especies
angélicas) son tanto más señaladas cuanto más cercanas al centro.
•
La Ciencia ha demostrado que Dios no existe; que el hombre no tiene alma; que no hay vida
después de la muerte.
La Ciencia no puede demostrar ninguna de esas cosas. Todas ellas quedan fuera del método
científico (del que hablaremos más adelante). Naturalmente, este mito ha sido difundido por
personas opuestas a la Religión, y no es más que una expresión de lo que la lengua inglesa
llama wishful thinking, de difícil traducción al español.
En 1917 se realizó una encuesta sobre las creencias religiosas de las personas de los
Estados Unidos de América dedicadas al cultivo de la Ciencia. El resultado fue de,
aproximadamente, un 50% de creyentes. De aquí se predijo que, a lo largo del siglo XX, las
creencias religiosas de los científicos desaparecerían por completo.
En 1997, exactamente ochenta años después, se repitió la encuesta. El resultado fue muy
parecido al de la anterior: alrededor de un 50% de científicos estadounidenses son creyentes.
En consecuencia, la predicción de 1917 ha fracasado. Sin embargo, los comentaristas de la
nueva encuesta aseguran que este resultado hace prever que las creencias religiosas de los
científicos desaparecerán durante el siglo XXI, lo que prueba que el hombre puede tropezar
dos veces en la misma piedra.
Una división de opiniones al 50% en una cuestión ajena a la ciencia, parece un resultado
razonable, incluso predecible.
•
Sólo utilizamos el 10% del cerebro.
Este neuromito ha recibido mucha publicidad durante el siglo XX, favorecido por el patrocinio
de los cursos Dale Carnegie y el apoyo de figuras tan espectaculares como Albert Einstein.
Sostiene que nuestro cerebro está infrautilizado y que es capaz de realizar esfuerzos diez
veces superiores a los normales, lo que parece alentar las teorías de los defensores de la
existencia de potencialidades humanas ocultas, como la telepatía, la clarividencia o la
psicocinética.
En realidad, el mito surgió como consecuencia de un malentendido.
Allá por los años treinta, los neurólogos descubrieron que las especies con sistema nervioso
más complejo (entre las que destaca el hombre) dedican una menor proporción de la masa
cerebral a las funciones sensorio-motoras. Se aplicó el nombre de córtex silencioso a las
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
áreas cerebrales dedicadas a otras actividades, entre las que destacan el lenguaje y el
pensamiento abstracto. El título de silencioso hizo pensar equivocadamente a algunos no
expertos (como Einstein) que esa parte del cerebro estaba desocupada. Experimentos
recientes realizados con tomografía de emisión de positrones han demostrado que en el
cerebro humano no existen zonas infrautilizadas.
El mito del Progreso Indefinido
El concepto de Progreso es relativamente moderno. Durante la Edad Media y el Renacimiento
dominó la teoría de que los grandes maestros de la Antigüedad eran insuperables. Cualquier teoría
nueva tenía que apoyarse en una demostración de que aquello, aunque mal entendido, había sido
dicho antes por Aristóteles, Euclides, o la autoridad de turno. De aquí el poco interés de los
pensadores de aquella época por la originalidad y lo que hoy llamamos "derechos de autor", siendo
frecuente que las obras filosóficas o literarias fuesen falsamente atribuidas a los maestros de antaño.
Francis Bacon (1561-1626) fue uno de los primeros en lanzar la idea revolucionaria de que los
grandes hombres del pasado no sabían necesariamente más que el hombre actual, que abrió
camino al concepto del Progreso, apoyado posteriormente por René Descartes (1596-1650) y
Bernard de Fontenelle (1657-1757), que fue el primero en afirmar que, desde el punto de vista
biológico, los pueblos antiguos y modernos son esencialmente iguales.
Durante el siglo XVIII surgió la teoría del Progreso Indefinido, que invierte la idea medieval de
un pasado mejor y sostiene que el futuro es siempre superior al presente. El Abbé St. Pierre (16581753), Turgot (1727-1781) y, sobre todo, Condorcet (1743-1794) pueden considerarse los padres de
la idea. El último llegó a dividir la Historia en diez etapas sucesivas. La décima, en la que nos
encontramos, es la de la ciencia, el racionalismo y la revolución, que abrirá paso a una era de
prosperidad, tolerancia e ilustración. (La Utopía siempre está a la vuelta de la esquina).
En el siglo XIX, la teoría del Progreso Indefinido pareció haberse impuesto. Auguste Comte
(1798-1857) insiste sobre las etapas sucesivas de Condorcet, que reorganiza en tres: la teológicomilitar, la metafísico-jurídica y la científico-industrial. Naturalmente, ninguna de las etapas tiene
vuelta atrás. Nuestra llegada a la era científica es definitiva.
El auge del evolucionismo, a partir de mediados del siglo XIX, dio una nueva expresión al
principio del Progreso Indefinido, que pasó a definirse en términos biológicos: La evolución biológica
es un proceso que conduce indefectiblemente a más y más complejidad. La idea había sido ya
entrevista, treinta años antes, por el movimiento romántico. John Keats (1795-1821) había escrito en
su poema Hyperion (1820), publicado casi cuatro décadas antes que El origen de las especies de
Darwin:
"I't is the eternal law
that first in beauty should be first in might."
Las ideas de Comte se fundieron con las de Darwin en la obra de Herbert Spencer (18201903) y Karl Marx (1818-1903), que sostienen que la evolución social es automática e inevitable.
Como sus antecesores, Marx divide la Historia en varias etapas sucesivas y progresivas (tribalismo,
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
régimen esclavista, feudalismo, capitalismo y socialismo) y prevé como inevitable el paso a la última
a través de la dictadura del proletariado y la sociedad sin clases.
En una línea paralela, pero estrictamente biológica, podemos colocar la teoría de la
Ortogénesis de Karl Wilhelm von Nägely (1817-1891), para quien la evolución biológica es un
proceso con una dirección predeterminada, empujado por alguna acción externa o interna no muy
bien definida (como la fuerza vital de Henri Bergson). Esta teoría tuvo mucho ascendiente hasta bien
entrado el siglo XX, y aún se nota su influencia en la obra de Pierre Teilhard de Chardin.
En su forma evolucionista, el principio del Progreso Indefinido se plasmó, a principios de este
siglo, en una forma mítica de indudable atractivo, que aunque prácticamente desterrada del acervo
científico, ha ganado la imaginación popular. En su forma literaria, el mito se plasmó en las obras
Back to Metuselah (1922) de George Bernard Shaw (1856-1950) y The outline of History (1920) de
H.G.Wells (1866-1946). Presenta la evolución como una lucha permanente por la existencia, en la
que las especies aparentemente más débiles sobreviven frente a enemigos monstruosos: ¿Quién
podría prever el triunfo de los procordados durante la explosión cámbrica? ¿O el de los peces
crosopterigios (de los que surgieron los vertebrados terrestres) frente a los teleósteos? ¿O el de los
mamíferos frente a los reptiles gigantes? ¿O el del hombre frente a un entorno hostil? Pero en todos
esos casos la inteligencia (el progreso) acaba venciendo a la fuerza bruta. El hombre ocupa al fin su
papel en la cumbre: domina el mundo, se abre ante él una etapa indefinida de progreso científico.
Sin embargo, en este punto el mito introduce un final verdaderamente grandioso: nada menos que el
crepúsculo de los dioses, de la epopeya germánica de los Eddas y los Nibelungos. El aumento
insoslayable de la entropía nos lleva hacia un final catastrófico. El cosmos terminará en una
conflagración térmica o en una desintegración helada. Nada que podamos hacer logrará detenerlo.
El Progreso Indefinido está destinado a la destrucción final.
Reacciones contra el Progreso Indefinido
Pero el mismo siglo XX que vio nacer la formulación épica del mito evolucionista iba a ser testigo
de las primeras reacciones en su contra:
•
Los biólogos de la escuela neodarwinista se opusieron con todas sus fuerzas a la idea de una
evolución dirigida, introduciendo el azar y la Estadística como elemento y herramienta
fundamentales para el estudio de esta ciencia. La evolución no resulta ser, después de todo,
un proceso de complejificación creciente inevitable. Los retrocesos, las detenciones y la
contingencia están a la orden del día. En palabras del biólogo británico J.B.S.Haldane, por
cada caso de progreso hay diez de degeneración.
•
Un filósofo, Oswald Spengler (1880-1936) anunció que el Progreso Indefinido de nuestra
civilización no sólo podría detenerse algún día, sino que, de hecho, está ya detenido. Su obra
Decadencia de Occidente (1923) tuvo una gran influencia en el ambiente depresivo de la
primera postguerra mundial.
•
Un historiador, Arnold Toynbee (1889-1975) sostuvo en su monumental Estudio de la Historia
que las civilizaciones nacen, crecen, se esclerotizan, y mueren (o se transforman en fósiles
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
vivientes), aunque pueden dejar descendencia. El Progreso Indefinido resulta así ser un
fenómeno real, pero estadístico, difícilmente medible, excepto a distancia, comparable al
avance de un automóvil como consecuencia del de las ruedas: un punto sobre la superficie de
la rueda (la civilización) sólo sube y baja. El coche, sin embargo, avanza.
•
Un antropólogo, Alfred Louis Kroeber (1876-1960) sostuvo, en su Configurations of Culture
Growth, que los genios no suelen nacer solos, sino que forman configuraciones de grandes
hombres, precedidas por precursores y seguidas por decadencias. De nuevo, frente al
Progreso Indefinido, tenemos una infinita sucesión de altibajos.
•
Un sociólogo, Pitirim Alexandrovitch Sorokin (1889-1968) acumuló datos cuantitativos en su
Dinámica Social y Cultural, que sugieren que las actividades culturales intelectuales (ciencia y
filosofía, principalmente) forman ciclos de larga duración (del orden de dos mil años) en los
que alternan fases intuicionistas (con predominio de la filosofía y la religión) con fases
sensitivas (en las que prepondera la ciencia). Actualmente nos encontramos en una de las
últimas, pero se puede prever que, más pronto o más tarde, esta fase terminará, como
terminaron todas sus predecesoras.
La situación de la Ciencia moderna
¿Existen indicios que nos hagan pensar que la evolución de la Ciencia occidental moderna, que
se ha prolongado triunfalmente durante cinco siglos en un ascenso siempre creciente, esté próxima
a detenerse o incluso a retroceder? ¿Tienen razón los críticos de la teoría del Progreso Indefinido?
Algunos análisis cualitativos y cuantitativos pueden arrojar luz sobre estas cuestiones.
•
Una cuantificación sencilla de la evolución de la ciencia grecorromana y medieval nos
demuestra que, en los veinte siglos que van desde el siglo VI antes de Cristo al XIV después
de Cristo, hubo varias configuraciones sucesivas y casi independientes de desarrollo
científico, con picos bien marcados en el siglo V antes de Cristo, el siglo II después de Cristo,
y el siglo XIII. Estos picos fueron seguidos por decadencias reales, lo que confirma la teoría
oscilatoria de los avances científicos contra la del Progreso Indefinido. La cuantificación ha
sido obtenida asignando pesos a los científicos en función del número de líneas de sus
biografías en enciclopedias de varios países.
•
Una cuantificación semejante realizada sobre los datos de la ciencia occidental moderna nos
presenta una situación parecida: el avance continuo y siempre hacia más y más
descubrimientos científicos es ilusorio. Hemos tenido ya algunas cumbres bien marcadas en
los siglos XVII y XVIII, seguidos por descensos apreciables, aunque el enorme desarrollo
científico de los siglos XIX y XX nos ha hecho perder de vista la realidad. El futuro no está
claro: de hecho, aunque nuestros datos indican un descenso significativo durante la segunda
mitad del siglo XX, el efecto podría deberse a la cercanía, que hace perder perspectiva, y al
hecho de que los científicos jóvenes, nacidos después de 1950, aún no han dado de sí todo lo
que podrían (o aún no se les ha reconocido).
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
•
La descomposición por países de la cuantificación de la ciencia occidental hace resaltar aún
más el carácter configurativo y oscilatorio de estos movimientos culturales en los cuatro
países más importantes en este campo. Alemania ha tenido no menos de cinco cumbres
desde el siglo XV; Gran Bretaña presenta otros cinco máximos bien marcados, Francia
cuatro. En cuanto a los Estados Unidos, se han convertido durante el siglo XX en el país
dominante, pues más de la mitad del esfuerzo científico de nuestra civilización se apoya
actualmente en él.
•
Una medida interesante de la evolución del progreso científico durante el siglo XX viene dada
por los premios Nobel, que recompensan los avances más significativos en los campos de la
Física, la Química, la Fisiología y la Medicina. De la cuantificación realizada se deducen
algunas tendencias preocupantes, como el envejecimiento progresivo de los científicos que
los han recibido. Se ha pasado de una media de edad de 47 años a los 60 de la década de
los noventa. En contraposición, el número de premios Nobel recibidos por personas con
menos de 40 años ha descendido desde nueve en los años treinta y cincuenta, hasta cero en
los noventa. Sirva de señal de esta evolución el hecho de que aún no ha recibido un premio
Nobel ninguna persona nacida después de 1950.
•
Existe una clara tendencia en la ciencia moderna hacia la desaparición de los genios. En
siglos pasados, ciertas personas destacaron muy por encima de sus contemporáneos y
pasaron al acervo popular como nombres mundialmente conocidos. Citemos a Copérnico,
Galileo, Descartes, Newton, Linneo, Franklin, Gauss, Darwin, Pasteur, Edison, Ramón y
Cajal, Freud, Madame Curie, Einstein y Heisenberg, entre muchos otros. En los últimos
tiempos, este fenómeno ha desaparecido. La única figura que ha obtenido modernamente una
fama comparable a la de los mencionados es la de Stephen Hawking, que la debe en parte a
razones ajenas a sus logros científicos. La misma tendencia se revela en la distribución de los
premios Nobel individuales, que ha descendido continuamente desde 25 en la primera década
del siglo XX hasta 6 en la última. El desarrollo científico se está polarizando alrededor de
grupos de trabajo integrados, en lugar de grandes personalidades. No está claro qué se
puede deducir de esta tendencia. No es evidente que esto deba dar lugar a una detención
futura de dicho desarrollo.
Pero existen en la actualidad otros síntomas preocupantes.
Desconfianza en la Ciencia
Se está extendiendo cada vez más en el hombre de la calle una desconfianza creciente hacia los
científicos y los avances que realizan. A mediados de este siglo era frecuente (especialmente en la
literatura de ciencia-ficción) la previsión de que en el futuro la sociedad podría estar gobernada por
científicos, como una forma moderna de La República de Platón. Esta idea ha desaparecido casi por
completo. La desconfianza en la Ciencia se debe a varias causas, que al actuar conjuntamente han
empeorado la situación:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
•
La ignorancia. La educación científica es claramente insuficiente. Estudios estadísticos
realizados en los Estados Unidos estiman en poco más de un 5% la proporción de la
población adulta que puede considerarse científicamente alfabetizada (es decir, que son
capaces de comprender las cuestiones más elementales). Existen muchas razones para ello:
la ciencia se enseña en clase como un ejercicio académico desligado de la vida real. Se
aprenden procedimientos, pero no se enseña a aplicarlos en la práctica cotidiana, por
ejemplo, en la detección de las falacias estadísticas con que los gobiernos y la prensa nos
regalan todos los días (véase 200% of nothing, por A.K.Dewdney, Wiley, 1993).
•
Poca comunicación entre los científicos y el público. La Ciencia siempre ha resultado
esotérica para la mayor parte de la gente. La divulgación científica a través de los medios de
comunicación ha realizado un enorme esfuerzo durante los años ochenta y principios de los
noventa, pero su década de oro parece haber terminado: los suplementos científicos de los
periódicos de mayor difusión se acortan o desaparecen, en televisión sólo quedan
documentales sobre los seres vivos.
•
Otro problema importante es el retraso de años entre la publicación de los descubrimientos
científicos y su aplicación práctica. Grandes titulares anuncian avances espectaculares en la
curación del cáncer o de las enfermedades genéticas, que luego desaparecen por completo
durante largo tiempo de los medios de comunicación, lo que mueve al hombre de la calle a
sacar la conclusión de que los supuestos descubrimientos científicos no valían para nada.
Este efecto empeora porque el ansia por publicar, concomitante a la situación actual de las
carreras científicas, mueve a muchos a hacer públicos sus descubrimientos antes de tiempo y
en medios no estándar (recuérdese el caso de la fusión fría).
•
Los peligros de la Ciencia. Durante el siglo XX, la Ciencia ha dejado de ser, en la mentalidad
popular, la panacea que resolvería todos nuestros problemas, pasando a convertirse en uno
de los monstruos que amenazan nuestra supervivencia. Primero ha sido la carrera de
armamentos, que llevó a la acumulación de armas de destrucción masiva suficientes para
acabar varias veces con la vida en la Tierra.
Después vino la ingeniería genética, con la amenaza de manipulación de personas y
generaciones inherente en algunos de sus descubrimientos, así como del mal uso de los
conocimientos obtenidos (clonación, patentes, discriminación genética). La Medicina también
ha contribuido al desprestigio científico con su incesante cambio de modas y consejos: lo que
ayer era malo para la salud, hoy es bueno, y viceversa. Y no hablemos de los experimentos
sobre animales y, sobre todo, seres humanos, realizados a veces en condiciones
inaceptables.
Amenazas a la Ciencia
Como consecuencia de esto, se está extendiendo cada vez más un estado de opinión
desfavorable a la Ciencia en general, que comienza a pasar al ataque contra las bases
fundamentales del conocimiento. Entre los movimientos anticientíficos más extendidos en la
actualidad destacan los siguientes:
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
•
El ecologismo radical, que se opone al avance científico y promueve la renuncia a los
descubrimientos científico-técnicos y el regreso a un estilo más natural de vida, sin
comprender que son esos descubrimientos los que hicieron posible el aumento de la
población mundial. Si retrocediésemos al nivel técnico de hace dos o tres siglos, la Tierra
sería incapaz de mantenernos. El resultado sería la guerra total.
•
El feminismo radical, que sostiene que la Ciencia actual es machista y que hay que destruirla
y empezar de nuevo para darle un carácter más feminista. Este es uno de los muchos
movimientos que, al negar la existencia de la verdad objetiva, mina los fundamentos de la
investigación científica y podría llevarnos (si tuviera éxito) directamente a la catástrofe.
Emparentados con él están diversas formas de corrección política que aplican las mismas
ideas a razas o minorías no privilegiadas y que abogan por la destrucción, en lugar de la
integración.
•
El Constructivismo, doctrina filosófica que se ha desarrollado mucho durante la segunda mitad
del siglo XX, niega la existencia de la verdad objetiva y propone que todos los
descubrimientos de la Ciencia son meras construcciones sociales. En circunstancias distintas
se habrían podido obtener resultados opuestos. Aunque, como todos los extremismos, esta
doctrina se apoya en un principio válido (la influencia de la sociedad sobre la dirección que
toma la investigación científica), al aplicarlo a los hechos y negar la existencia de la verdad, el
Constructivismo a ultranza se convierte en una teoría falaz y peligrosa.
•
La epistemología democrática trata de aplicar los principios de la democracia a la
investigación científica. Pero la Ciencia nunca ha sido demócrata, ni puede serlo. La opinión
de la mayoría no tiene ninguna validez per se, porque siempre puede cambiarse con
razonamientos. Mil ejemplos de la historia nos demuestran que una sola persona, enfrentada
a todo el resto de sus colegas, puede tener finalmente razón.
Muchos de los movimientos anteriores, y otros semejantes, se enfrentan directamente con la
razón y el método científico, que se ha empleado con resultados espectaculares desde principios del
siglo XVII. Muchas pseudociencias se han apoderado de la imaginación popular, reciben el apoyo
masivo de los medios de comunicación y están introduciendo cabezas de puente incluso en las
universidades:
•
La Parapsicología, en sus dos versiones principales: la percepción extrasensorial (ESP,
clarividencia, precognición, telepatía) y la psicocinética.
•
La Astrología, que a finales del siglo XX está alcanzando un auge sin precedentes desde los
tiempos de los Imperios Romano y Chino.
•
La investigación del fenómeno ovni (Ufología).
•
El creacionismo antievolucionista, que afortunadamente es casi desconocido a este lado del
Atlántico.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Frente a estos ataques, el método científico sólo puede defenderse acudiendo a sus éxitos
probados, que se basan en seis principios fundamentales:
•
Honradez: la evidencia debe evaluarse sin engaños.
•
Repetibilidad: los resultados de los experimentos deben poder repetirse.
•
Refutabilidad: debe ser posible idear evidencias que prueben que una afirmación es falsa. Los
parapsicólogos rechazan este principio cuando afirman que sus experimentos no funcionan
cuando está presente algún escéptico, con lo que es imposible refutarlos.
•
Totalidad: debe considerarse toda la evidencia disponible. No sólo los casos favorables, sino
también los desfavorables. Ejemplo: Ayer pensé en Fulano y al poco rato me llamó por
teléfono. Hay que saber también cuántas veces pensé en Fulano y no me llamó por teléfono,
y cuántas veces me llamó Fulano sin que yo hubiera pensado en él. Sólo con esos tres datos
se puede estimar si la coincidencia entra en las previsiones del cálculo de probabilidades.
•
Suficiencia: la prueba de una afirmación es responsabilidad del que afirma. Los testimonios
personales no son pruebas científicas. Las personas se equivocan o pueden mentir. El fraude
científico no es desconocido, aunque sí poco frecuente.
•
Lógica: los argumentos deben ser válidos (la conclusión se deduce correctamente de las
premisas) y sólidos (las premisas son verdaderas).
BIBLIOGRAFÍA
- Anglin, W. S. (1991). Mathematics: A concise history and philosophy. Springer.
- Boyer, C. (1978). Historia de la Matemática. Corpa.
- Hawking, S. (1988). La historia del tiempo. Círculo de lectores. Barcelona.
- Narlikar, J. (1997). Fenómenos violentos en el universo. Alianza Universidad. Madrid.
- Periago Lorente, M. (1987). Vida de Pitágoras. Madrid.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
LA LOPD EN LA EMPRESA. PLAZOS, SANCIONES E INDEMNIZACIONES
JOSE ALBERTO PRO ESTEBAN
1. PLAZOS DE IMPLANTACIÓN, SANCIONES E INDEMNIZACIONES
1.1 Plazos de implantación de las medidas de seguridad.
Los plazos de implantación están recogidos en la Disposición Transitoria Segunda del RD
1720/2007 de 21 de diciembre, reguladora de la LOPD.
Los ficheros que existiesen en la fecha de implantación de entrada en vigor del RD
1720/2007, deberán implantar:
1. En el plazo de un año desde la entrada en vigor del RD las medidas de seguridad de nivel medio
exigible a los siguientes ficheros:
-
Ficheros de los que sean responsables las entidades gestoras y servicios comunes de
la Seguridad Social.
Ficheros de los que sean responsables las mutuas de accidentes de trabajo y
enfermedades profesionales de la Seguridad Social.
Ficheros que contengan un conjunto de datos de carácter personal, y que ofrezcan una
definición de las características o personalidad de los ciudadanos y permitan evaluar la
personalidad o comportamiento de los mismos.
2. En el plazo de un año desde la entrada en vigor, las medidas de seguridad de nivel medio, y en el
plazo de dieciocho meses las de nivel alto para:
-
Ficheros que contengan datos derivados de actos de violencia de género.
Ficheros de los que sean responsables los operadores que presten servicios de
comunicaciones electrónicas disponibles al público o exploten redes públicas de
comunicaciones electrónicas, respecto a los datos de tráfico o datos de localización.
Los ficheros automatizados, creados con posterioridad a la fecha de entrada en vigor del
presente RD 1720/2007, deberán tener implantadas las medidas desde el día de su creación.
Los plazos para implantar las medidas de seguridad en ficheros no automatizados que existan en la
fecha de entrada en vigor del presente Real Decreto deberán implantar:
-
Las medidas de seguridad de nivel básico en el plazo de un año desde su entrada en
vigor.
Las medidas de seguridad de nivel medio en el plazo de dieciocho meses desde su
entrada en vigor.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
-
Las medidas de seguridad de nivel alto en el plazo de dos años desde su entrada en
vigor.
Los ficheros no automatizados, creados con posterioridad a la fecha de entrada en vigor del
presente RD 1720/2007, deberán tener implantadas las medidas desde el día de su creación.
1.2 Infracciones y sanciones en la LOPD
1.2.1 Infracciones
Las infracciones y sanciones se regulan en el Título VII de la LOPD. Tal y como se han visto
podrán ser leves, graves o muy graves, y llevan asociadas la imposición de sanciones muy elevadas
en los tramos altos de los rangos que tienen impuestos.
El artículo 43 de la LOPD establece que la responsabilidad recaerá siempre sobre el
responsable de los ficheros y los encargados de los tratamientos. Responderán a las infracciones a
las que hayan incurrido personalmente.
En los ficheros de titularidad pública, las infracciones cometidas podrán iniciar actuaciones
disciplinarias por parte del Director de la Agencia de Protección de Datos. Esta medida de
actuaciones disciplinarias y las medidas para que cesen o se corrijan los efectos de infracción, son
las únicas actuaciones que prevé la Ley para este tipo de ficheros públicos.
En el artículo 44 de la LOPD se establecen los siguientes tipos de infracciones:
INFRACCIONES LEVES
o No atender, por motivos formales, la solicitud del interesado de rectificación o cancelación de
los datos personales objeto de tratamiento cuando legalmente proceda.
o No proporcionar la información que solicite la Agencia de Protección de Datos en el ejercicio
de las competencias que tiene legalmente atribuidas, en relación con aspectos no sustantivos
de la protección de datos.
o No solicitar la inscripción del fichero de datos de carácter personal en el Registro General de
Protección de Datos, cuando no sea constitutivo de infracción grave.
o Proceder a la recogida de datos de carácter personal de los propios afectados sin
proporcionarles la información que señala el artículo 5 de la presente Ley.
o Incumplir el deber de secreto establecido en el artículo 10 de esta Ley, salvo que constituya
infracción grave.
INFRACCIONES GRAVES
o Proceder a la creación de ficheros de titularidad pública o iniciar la recogida de datos de
carácter personal para los mismos, sin autorización de disposición general, publicada en el
"Boletín Oficial del Estado" o Diario oficial correspondiente.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
o Proceder a la creación de ficheros de titularidad privada o iniciar la recogida de datos de
carácter personal para los mismos con finalidades distintas de las que constituyen el objeto
legítimo de la empresa o entidad.
o Proceder a la recogida de datos de carácter personal sin recabar el consentimiento expreso
de las personas afectadas, en los casos en que éste sea exigible.
o Tratar los datos de carácter personal o usarlos posteriormente con conculcación de los
principios y garantías establecidos en la presente Ley o con incumplimiento de los preceptos
de protección que impongan las disposiciones reglamentarias de desarrollo, cuando no
constituya infracción muy grave.
o El impedimento o la obstaculización del ejercicio de los derechos de acceso y oposición y la
negativa a facilitar la información que sea solicitada.
o Mantener datos de carácter personal inexactos o no efectuar las rectificaciones o
cancelaciones de los mismos que legalmente procedan cuando resulten afectados los
derechos de las personas que la presente Ley ampara.
o La vulneración del deber de guardar secreto sobre los datos de carácter personal
incorporados a ficheros que contengan datos relativos a la comisión de infracciones
administrativas o penales, Hacienda Pública, servicios financieros, prestación de servicios de
solvencia patrimonial y crédito, así como aquellos otros ficheros que contengan un conjunto
de datos de carácter personal suficientes para obtener una evaluación de la personalidad del
individuo.
o Mantener los ficheros, locales, programas o equipos que contengan datos de carácter
personal sin las debidas condiciones de seguridad que por vía reglamentaria se determinen.
o No remitir a la Agencia de Protección de Datos las notificaciones previstas en esta Ley o en
sus disposiciones de desarrollo, así como no proporcionar en plazo a la misma cuantos
documentos e informaciones deba recibir o sean requeridos por aquél a tales efectos.
o La obstrucción al ejercicio de la función inspectora.
o No inscribir el fichero de datos de carácter personal en el Registro General de Protección
Datos, cuando haya sido requerido para ello por el Director de la Agencia de Protección de
Datos.
o Incumplir el deber de información que se establece en los artículos 5, 28 y 29 de esta Ley,
cuando los datos hayan sido recabados de persona distinta del afectado.
INFRACCIONES MUY GRAVES
o La recogida de datos en forma engañosa y fraudulenta.
o La comunicación o cesión de los datos de carácter personal, fuera de los casos en que estén
permitidas.
o Recabar y tratar los datos de carácter personal a los que se refiere el apartado 2 del artículo 7
cuando no medie el consentimiento expreso del afectado; recabar y tratar los datos referidos
en el apartado 3 del artículo 7 cuando no lo disponga una ley o el afectado no haya
consentido expresamente, o violentar la prohibición contenida en el apartado 4 del artículo 7.
o No cesar en el uso ilegítimo de los tratamientos de datos de carácter personal cuando sea
requerido para ello por el Director de la Agencia de Protección de Datos o por las personas
titulares del derecho de acceso.
o La transferencia temporal o definitiva de datos de carácter personal que hayan sido objeto de
tratamiento o hayan sido recogidos para someterlos a dicho tratamiento, con destino a países
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
o
o
o
o
que no proporcionen un nivel de protección equiparable sin autorización del Director de la
Agencia de Protección de Datos.
Tratar los datos de carácter personal de forma ilegítima o con menosprecio de los principios y
garantías que les sean de aplicación, cuando con ello se impida o se atente contra el ejercicio
de los derechos fundamentales.
La vulneración del deber de guardar secreto sobre los datos de carácter personal a que hacen
referencia los apartados 2 y 3 del artículo 7, así como los que hayan sido recabados para
fines policiales sin consentimiento de las personas afectadas.
No atender, u obstaculizar de forma sistemática el ejercicio de los derechos de acceso,
rectificación, cancelación u oposición.
No atender de forma sistemática el deber legal de notificación de la inclusión de datos de
carácter personal en un fichero.
1.2.2 Sanciones
Al igual que las infracciones, las sanciones vienen recogidas en el Título VII de la LOPD.
El tipo de sanción varía según sea la naturaleza jurídica del responsable del fichero que ha
cometido la infracción, es decir, si es de titularidad pública o privada, ya que es sancionado de forma
diferente.
Si la sanción es sobre entidades privadas, las sanciones consisten en multas administrativas y
según el caso la inmovilización de los ficheros. Si la sanción es sobre entidades públicas, éstas
tendrán un régimen disciplinario y en los casos que proceda, la inmovilización de los ficheros.
Según el art. 45:
o Las infracciones leves serán sancionadas con multa de 601,01 a 60.101,21 euros.
o Las infracciones graves serán sancionadas con multa de 60.101,21 a 300.506,05 euros.
o Las infracciones muy graves serán sancionadas con multa de 300.506,05 a 601.012,21 euros.
La cuantía de las sanciones se graduará atendiendo a la naturaleza de los derechos
personales afectados, al volumen de los tratamientos efectuados, a los beneficios obtenidos, al
grado de intencionalidad, a la reincidencia, a los daños y perjuicios causados a las personas
interesadas y a terceras personas, y a cualquier otra circunstancia que sea relevante para
determinar el grado de antijuridicidad y de culpabilidad presentes en la concreta actuación infractora.
Si, en razón de las circunstancias concurrentes, se apreciara una cualificada disminución de
la culpabilidad del imputado o de la antijuridicidad del hecho, el órgano sancionador establecerá la
cuantía de la sanción aplicando la escala relativa a la clase de infracciones que preceda
inmediatamente en gravedad a aquella en que se integra la considerada en el caso de que se trate.
En ningún caso podrá imponerse una sanción más grave que la fijada en la Ley para la clase
de infracción en la que se integre la que se pretenda sancionar.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
El Gobierno actualizará periódicamente la cuantía de las sanciones de acuerdo con las
variaciones que experimenten los índices de precios.
Sanciones sobre las Administraciones Públicas
En el artículo 46 se establecen las sanciones de las Administraciones Públicas, que no dejan
suponen multas administrativas. Es el Director de la Agencia de Protección de Datos el que propone
dos tipos de actuaciones.
-
-
Dictar una resolución en la que se propongan las siguientes medidas:
Que cesen los efectos de los hechos infractores.
Que se corrijan los efectos derivados de la infracción.
Podrá proponer la iniciación de actuaciones disciplinarias contra los responsables del
fichero y los encargados del tratamiento de los datos.
Esta resolución se notificará al responsable del fichero, al órgano del que dependa
jerárquicamente y a los afectados si los hubiera, además el Director de la Agencia comunicará al
Defensor del Pueblo las actuaciones que efectúe y las resoluciones que dicte al amparo de los
apartados anteriores.
Potestad de inmovilización de ficheros
La potestad de inmovilización de ficheros se recoge en el artículo 49 de la LOPD y en el artículo 121
del reglamento. Opera tanto en ficheros de titularidad pública como privada en las siguientes
circunstancias.
-
Que se esté en presencia de infracciones muy graves.
Utilización o cesión ilícita de datos personales que atenten gravemente contra el
ejercicio de los derechos que la LOPD concede a los ciudadanos y al libre desarrollo
de la personalidad que la Constitución y las leyes garantizan.
El Director de la Agencia de Protección de Datos podrá proponer además de la sanción , mediante
resolución motivada, la inmovilización de los ficheros de titularidad privada o pública. Éste
procedimiento se realiza de la manera siguiente:
-
-
El Director de la Agencia requiere a los responsables del fichero que cesen en la
utilización o cesión ilícita de datos de carácter personal en el plazo improrrogable de
tres días. En ese periodo, el responsable del fichero puede alegar contra el
requerimiento para evitar la inmovilización del fichero.
En el caso de incumplimiento del requerimiento, es decir, no se cesa en la utilización y
cesión ilícita de los datos, se procederá a la inmovilización de los ficheros afectados
con el fin de restaurar los derechos de los ciudadanos afectados.
Procedimiento sancionador
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
En el artículo 48 se indica el procedimiento sancionador y se indica que se podrá llevar a cabo
actuaciones previas con objeto de determinar si existen circunstancias que justifiquen el inicio de un
procedimiento.
Las actuaciones previas se llevarán a cabo de oficio por la Agencia de Protección de Datos y
tendrán una duración máxima de doce meses a contar desde la denuncia. Se pueden iniciar por:
-
Iniciativa propia.
Como consecuencia de la existencia de una denuncia.
Por petición razonada de otro órgano.
Las inspecciones podrán recabar cuanta información sea necesario: exhibición o envío de los
documentos y datos en el lugar en que se encuentren depositados, inspección de equipos físicos y
lógicos, requerir la ejecución de tratamientos y programas, etc.
También podrán realizarse visitas de inspección en los locales y sedes del inspeccionado, en
su propio domicilio o donde se encuentren ubicados los ficheros.
Las inspecciones concluirán con el levantamiento del correspondiente acta en el que debe
hacerse constar las actuaciones practicada durante la visita o visitas de inspección. Será firmado por
el inspector y por el inspeccionado que podrá hacer constar las alegaciones que crea oportunas.
Una vez finalizada las actuaciones previas, el Director de la Agencia decidirá si existen
razones para imputar la comisión de una infracción o no. Se dictará resolución que notificará al
inspeccionado y al denunciante.
Si se produce resolución sancionadora deberá contener:
-
Identificación de la persona o personas presuntamente responsables.
Descripción de los hechos imputados.
Indicación de que el órgano competente para resolver es el Director de la Agencia de
Protección de Datos.
Indicar al presunto responsable de que puede reconocer voluntariamente su
responsabilidad. En éste caso de dictará directamente resolución.
Designación del instructor, o en su caso secretario, indicando el régimen de recusación
de los mismos.
Indicación expresa de que el responsable tiene derecho a formular alegaciones sobre
el procedimiento y a proponer pruebas que estime conveniente.
Indicar las medidas, de carácter provisional que pudieran acordarse.
Prescripción.
En el artículo 47 de la LOPD se reflejan los motivos de prescripción tanto para las infracciones
como para las sanciones. El plazo de prescripción comenzará a contarse desde el día en que la
infracción se hubiera cometido.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Se distinguen la prescripción de infracciones siguientes:
-
Infracción leve. Prescribe al año.
Infracción grave. Prescribe a los dos años.
Infracción muy grave. Prescribe a los tres años.
Se interrumpirá la prescripción por las siguientes causas:
-
Iniciación de procedimiento sancionador.
Si esta iniciación es con conocimiento del interesado.
Se reanudará el plazo de prescripción por:
-
Si el expediente sancionador estuviera paralizado más de seis meses.
Por causas no imputables al presunto infractor.
Las sanciones impuestas por faltas muy graves prescribirán a los tres años, las impuestas por
faltas graves a los dos años y las impuestas por faltas leves al año.
El plazo de prescripción de las sanciones comenzará a contarse desde el día siguiente a
aquel en que adquiera firmeza la resolución por la que se impone la sanción.
1.3 Derecho a indemnizaciones
Tutela de los derechos.
o Las actuaciones contrarias a lo dispuesto en la presente Ley pueden ser objeto de
reclamación por los interesados ante la Agencia de Protección de Datos, en la forma que
reglamentariamente se determine.
o El interesado al que se deniegue, total o parcialmente, el ejercicio de los derechos de
oposición, acceso, rectificación o cancelación, podrá ponerlo en conocimiento de la Agencia
de Protección de Datos o, en su caso, del organismo competente de cada Comunidad
Autónoma, que deberá asegurarse de la procedencia o improcedencia de la denegación.
o El plazo máximo en que debe dictarse la resolución expresa de tutela de derechos será de
seis meses.
o Contra las resoluciones de la Agencia de Protección de Datos procederá recurso contenciosoadministrativo
Derecho a indemnización.
o Los interesados que, como consecuencia del incumplimiento de lo dispuesto en la presente
Ley por el responsable o el encargado del tratamiento, sufran daño o lesión en sus bienes o
derechos tendrán derecho a ser indemnizados.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
o Cuando se trate de ficheros de titularidad pública, la responsabilidad se exigirá de acuerdo
con la legislación reguladora del régimen de responsabilidad de las Administraciones
públicas.
o En el caso de los ficheros de titularidad privada, la acción se ejercitará ante los órganos de la
jurisdicción ordinaria.
En caso de no ejercitar uno de los derechos de oposición, acceso, rectificación o cancelación, el
responsable del fichero deberá indemnizar al afectado con una multa que oscila entre los 60.000 y
los 300.000 euros. Si el responsable no atendiera los derechos u obstaculizase su cumplimiento de
forma sistemática la indemnización oscilará entre los 300.000 y los 600.000 euros.
BIBLIOGRAFÍA.
•
•
•
•
•
•
Ley Orgánica 5/1992, de 29 de octubre, de Regulación del Tratamiento Automatizado de los
Datos de Carácter Personal. LORTAD.
Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal.
Real Decreto 1720/2007, de 21 de diciembre, por el que se aprueba el Reglamento de
desarrollo de la Ley Orgánica 15/1999, de 13 de diciembre, de protección de datos de
carácter personal.
Agencia Española de Protección de Datos. www.agpd.es
Real Decreto 428/1993 de 26 de marzo, por el que se aprueba el Estatuto de la Agencia
Española de Protección de Datos.
Guía de seguridad de la Agencia Española de Protección de Datos
ESTRATEGIAS Y METODOLOGÍA PARA EL INICIO DE COMPETENCIAS BÁSICAS EN LA
EDUCACIÓN INFANTIL.
AUTOR: FERNANDO DAVID PÉREZ DÍAZ.
1.- INTRODUCCIÓN.
Un nuevo elemento curricular ha sido introducido en la acción educativa planteado por la L.O.E. Las
competencias básicas forman parte de la programación en las aulas desde su inicio y primera toma de contacto
en la educación infantil, pasando por su aprendizaje en la educación primaria y finalizando con su
consolidación en la educación secundaria obligatoria. Pero existen muchas dudas sobre cómo se puede plantear
ese inicio de este nuevo elemento curricular, en éstos primeros años empezamos a descubrir los principios
metodológicos, así como las estrategias necesarias para lograr ese objetivo.
El presente artículo pretende aportar la descripción metodológica de herramientas que permita a los/las
docentes de la etapa de educación Infantil introducir en el día a día las competencias básicas con el objetivo de
trabajar en el aula de forma efectiva.
2.- PALABRAS CLAVES.
Portafolio, rincón, taller, aprendizaje cooperativo, competencia básica, aprendizaje, técnicas, requisitos.
3.- CONSIDERACIONES PREVIAS.
Las diferentes técnicas necesarias para la introducción de la competencias básicas han sido
desarrolladas a lo largo de la historia educativa, todas ellas han estado influenciadas por las diferentes
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
corrientes psicopedagógicas que se han dado, pero hoy en día están siendo utilizadas no por su influencia en el
mundo educativo bajo su perspectiva teórica, sino por su incidencia en el logro y capacitación de las
competencias básicas. Por otro lado decir que en algunos de los casos se tratan de técnicas y estrategias que
llevan muchos años aplicándose en la Educación Infantil pero no con este sentido, y en otros son técnicas
totalmente novedosas y que con adaptaciones se podrían dar en el entorno infantil. A continuación se
presentarán diferentes técnicas y herramientas educativas cuyo desarrollo permitirá desarrollar en el aula de
infantil esa iniciación a las competencias básicas
4.- PRINCIPIOS METODOLÓGICOS.
Los principios que deben regir la práctica docente con el fin de poner en prácica las diferentes técnicas y
obtener el objetivo de la iniciación de las competencias básicas en la Educación Infantil son los siguientes:
Adaptación: muchos recursos se pueden y deben adaptarse a la etapa y nivel que se quiere aplicar. Cada
adaptación debe contemplar las características psicoevolutivas del alumno7a al que se dirige.
Análisis: las diferentes técnicas deben observarse a lo largo de su funcionamiento, así podremos
rectificar y modificar los criterios para mejorarlas.
Reflexión: cada propuesta debe ser sometida a la reflexión del docente para que pueda extraer las
mejores conclusiones posibles
5.- TÉCNICAS DE TRABAJO.
5.1. EL PORTAFOLIOS.
Definición.
El portafolios es el instrumento donde se recogen los trabajos o productos de los/las alumnos/as
relacionados con el trabajo realizado a lo largo del curso, trimestre o unidad didáctica. La carpeta la completa
el/la propio/a alumno/a durante todo el curso. El portafolios nos informa sobre la evolución del proceso de
aprendizaje que ha seguido el/la alumno/a, lo que permite valorar no sólo lo que ha aprendido sino también la
capacidad de aprendizaje que ha logrado.
El maestro/a de Educación Infantil debe dejar muy claro la forma de archivar el portafolio, para ello se
debe ejemplarizar el sentido y orientación en el que se deben compilar los trabajos, de este modo el alumnado
se esforzará en la adecuada presentación de sus producciones. Con el uso del portafolios los/las alumnos/as
saben que es su responsabilidad demostrar los aprendizajes realizados y se sienten mucho más inclinados
aceptar las críticas y a actuar tras los comentarios de sus trabajos.
El uso del portafolios desarrolla la autonomía de los estudiantes; crea hábitos de trabajo; respeta los
procesos de atención a la diversidad, ya que permite ajustar las actividades a las necesidades de aprendizaje de
cada alumno; constituye un elemento dinámico en la comunicación profesor/alumno, favoreciendo la
retroalimentación con respecto al progreso y aprendizaje individual. Pero también presenta algunos
inconvenientes tales como que requiere tiempo y dedicación por parte del docente y del estudiante, además
implica un alto nivel de autodisciplina y responsabilidad por parte del alumnado.
El portafolios es una metodología que permite iniciar al alumnado en las siguientes competencias:
1- Competencia en comunicación lingüística: esta metodología permite generar ideas, dar coherencia y
cohesión a las tareas y adoptar decisiones.
2- Competencia en conocimiento e interacción con el mundo físico: el portafolios facilita los procesos de
identificar problemas y realizar conclusiones. Implica la habilidad de poner en práctica los procesos
propios del análisis.
3- Competencia social y ciudadana: el portafolios sirve como modelo de autoevaluación , favorece la
práctica del diálogo y de la negociación para llegar a acuerdos, así como la aceptación de críticas.
4- Competencia de aprender a aprender: esta metodología permite conocer las propias potencialidades y
carencias, ayudando al alumnado a planificarse en estrategias para logar su objetivo.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
5- Competencia en autonomía e iniciativa personal: el portafolios favorece la comprensión y el análisis de
los propios aprendizajes, así como la regulación del/la alumno/a en muchas de sus conductas.
Condiciones organizativas.
Para desarrollar esta técnica debemos fechar todos los trabajos, corregir las producciones, así como
realizar pequeñas asambleas para dar a conocer lo destacable de las producciones y que se remarque los
aspectos positivos de la misma. Del mismo modo debemos establecer las fechas y las formas de entrega, así
como la revisión periódica de los portafolios.
5.2. LOS RINCONES.
Definición.
Los rincones son zonas o espacios delimitados y concretos, situados en las propias clases, donde los/las
alumnos/as interaccionan simultáneamente. Los rincones constituyen una estrategia organizativa de
participación que da respuesta a los distintos intereses de los/las alumnos/as y que, a la vez, respeta los
diferentes ritmos de aprendizaje. Algunos puntos fuertes de los rincones son: la adaptación según ritmo y nivel
de aprendizaje; estimula el trabajo autónomo; desarrolla la creatividad con la interacción de los diferentes
elementos; desarrolla la cooperación entre los niños; potencia la actividad de los alumnos; educa en libertad de
elegir y de tomar decisiones, etc.
El contenido de cada uno de los rincones debe diferenciarse de forma que permita desarrollar el aspecto
que pretende el mismo, ya que esto será lo que identifique al mismo. No hay que olvidar la actividad lúdica que
pretenden los rincones, porque también es importante desde el punto de vista educativo, por eso el hilo
conductor de todos los rincones de trabajo es el juego.
Los aprendizajes que se producen en los rincones pueden ser espontáneos o guiados. Para ello el
maestro/a de educación infantil establece el itinerario que debe seguir para llegar al conocimiento y generar un
aprendizaje funcional.
Trabajar por rincones implica en la mayoría de las ocasiones un nivel de seguimiento del alumnado que
permite conocer la evolución de cada alumno/a y tomar decisiones sobre las medidas a tomar en cada situación
Tendremos tantos tipos de rincones como temas y tipos de actividades se nos ocurra organizar. A modo
de ejemplo proponemos diferentes rincones: el rincón de actividad lógica, el de topología, el de lectura, el de
análisis de las palabras, el de pintura, el de biblioteca, el de geometría, el de laboratorio, el de modelado, el de
construcción, el de música, el de observación y experimentación, el de prensa, etc.
Un rincón que merece una especial atención es el del ordenador, cada vez más inserto en las aulas. Este
recurso se hace necesario en la enseñanza, en tanto que supone la adquisición de un lenguaje que a lo largo de
toda la vida va a desarrollar y necesitar.
Los rincones constituyen una metodología muy adecuada para trabajar las siguientes competencias:
1- Competencia de aprender a aprender: los rincones permiten que los conocimientos se apliquen a una
amplia variedad de situaciones, provenientes de los diferentes campos de conocimiento y de la vida
cotidiana. Muchas veces la situaciones de los rincones son muy parecidas a la situación real.
2- Competencia de autonomía e iniciativa personal: los rincones desarrollan habilidades para
desenvolverse con autonomía e iniciativa personal en ámbitos de la vida y del conocimiento , tanto es
así que en la Educación Infantil se generan actitudes en el alumnado especialmente por este recurso
educativo. .
3- Tratamiento de la información y competencia digital: siempre y cuando incluyamos un rincón de nuevas
tecnologías de la información y comunicación.
Condiciones organizativas.
El /la maestro/a debe cumplir un papel de aglutinador de materiales específicos, así como de guía en la
propuesta de actividades sugerentes, asumiendo un papel protagonista y alejado de la visión tradicional de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
maestro/a. Para ello deben concentrar toda la información del rincón a desarrollar, así como los materiales y
establecer las condiciones de uso y empleo, así como la conducta a desarrollar en el mismo.
Por otro lado las condiciones de espacio, así como las de higiene y seguridad son muy importantes.
Deben diseñarse de tal manera que ofrezcan las mejores garantías para el desarrollo de los rincones.
Por último se hace necesario que el/la maestro/a observe al alumnado en el desarrollo de los distintos
rincones, para ello es necesario llevar algún tipo de registro que permita extraer la información deseada.
5.3.LOS TALLERES.
Definición.
Los talleres son técnicas de trabajo muy parecidas a los rincones, pero incluyendo algunas diferencias.
Se desarrollan de forma puntual con el fin de elaborar un producto o tarea final. Pueden participar agentes
externos del aula (padre, profesionales, etc). Varían en su ubicación para su desarrollo (fuera del aula, en la
playa, en un parque, etc).
En los talleres desarrollamos una técnica de participación conjunta que logra implicar a todos los
agentes que participan del mismo. El alumnado debe conocer con anterioridad el propósito del taller y cómo se
va a desarrollar.
Los talleres inician en las siguientes competencias básicas:
1. Competencia aprender a aprender: ya que el propio alumnado describe técnicas diversas para llegar a la
conclusión del producto final.
2. Competencia de conocimiento e interacción con el mundo físico: la construcción del conocimiento no
puede realizarse desde una concepción individualista, sino desde una práctica social y colectiva,
asumiendo actitudes de respeto a los demás y a uno mismo.
3. Competencia en comunicación lingüística: los talleres permiten desarrollar las relaciones constructivas
con los demás, la capacidad para convivir y para resolver conflictos.
Condiciones organizativas
Los talleres tienen una organización muy flexible tanto en los participantes como en las condiciones
para su práctica. En cuanto a los participantes pueden ir desde pequeños grupos a grupos interciclos. Lo que
debemos tener presente en la creación de los grupos es que el mismo tenga las capacidades necesarias para
poder desempeñar el taller. Algunas sugerencias de talleres pueden ser de elaboración de cerámica, cocina,
pintura, música, etc.
Es importante que incluyamos los talleres dentro de la programación diaria de aula para así poder llenar
de contenido el mismo.
12.- CONCLUSIONES.
La iniciación de las competencia básicas en la educación infantil está generando unos nuevos
planteamientos y reflexiones de la práctica docente. Los/las profesores de educación infantil no nos
encontramos al margen de éste propósito y como tal debemos generar metodologías que permitan a nuestros
alumnos/as introducirse en aprendizaje funcionales para su vida cotidiana. La bibliografía así como las
experiencias son escasas y tímidas, existiendo pocos recursos elaborados.
Debemos adaptar muchas de las técnicas que se aplican en otros ámbitos para así poder conseguir ese
propósito. A lo largo de los años venideros seremos testigos de una gran explosión de ideas relativas al
tratamiento de las competencias básicas en la educación infantil y de cómo iniciarlas en nuestros/as alumnos/as.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
BIBLIOGRAFÍA.
•
ARNAU, L. Y ZABALA, A.. 11 ideas clave. Cómo aprender y enseñar competencias. Colección Ideas
Clave, Editorial Graó, 2007
•
BLANCHARD, M. y MUZÁS, Mª. D. Propuestas metodológicas para profesores reflexivos: cómo
trabajar la diversidad en el aula.Madrid. Nancea 2005.
•
CABRERIZO, J., CASTILLO, S. y RUBIO, M.J. Programar y enseñar por competencias.
Formación y Práctica. Pearson Educación, Madrid 2007
•
CAÑAS, A., MARTÍN DÍAZ, M.J. y NIEDA, J. Competencias en el conocimiento y la interacción con
el mundo físico. La competencia científica. ALIANZA 2007
•
COLOMA, A.M., JIMÉNEZ, M.A. y SÁEZ, A.M. Metodologías para desarrollar competencias y
atender a la diversidad. Madrid. PPC 2008.
•
COLL, C. Las competencias básicas en educación. ALIANZA 2007
•
COLL, C., Las competencias en la educación escolar: algo más que una moda y mucho menos que un
remedio. Aula de Innovación Educativa, nº 161. Mayo. 2007
•
COLL, C., Redefinir lo básico en la educación básica. Cuadernos de Pedagogía, nº 339. Octubre. 2004
•
JOHNSON,D.W.,JOHSON,R.T. y HOLUBEC, E.J. El aprendizajecooperativo en el aula. Buenos Aires.
Paidós 1999.
•
MARCHESI, A. Sobre el bienestar de los docentes Competencias, emociones y valores. ALIANZA
2007
•
MARINA, J.A. y BERNABEU, R. Competencia social y ciudadana. ALIANZA 2007
•
MARTÍN, E. y MORENO, A. Competencia para aprender a aprender. ALIANZA 2007
•
Monográfico sobre Competencias básicas Cuadernos de Pedagogía, 370 (julio-agosto) 2007.
•
MONEREO, C.; POZO, J.I. ¿En qué siglo vive la escuela? El reto de la nueva cultura educativa.
Cuadernos de Pedagogía, 298 (enero), pp. 50-55. 2001
•
PÉREZ, P., ZAYAS, F. Competencia en comunicación lingüística ALIANZA 2007
•
PUIG, J.M. y MARTÍN, X. Competencia en autonomía e iniciativa personal. Josep María ALIANZA
2007
•
RYCHEN, D. S. y SALGANIK, L. H., Las competencias clave para el bienestar personal, social y
económico. Ediciones Aljibe, 2006
•
SARRAMONA, J. Las competencias básicas en la educación obligatoria CEAC 2004.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
•
V.V.A.A. Estrategias organizativas de aula: propuestas para atender a la diversidad. Graó.2001.
LAS APORTACIONES DE VIGOTSKY Y SUS IMPLICACIONES EN LA EDUCACIÓN INFANTIL.
AUTOR: FERNANDO DAVID PÉREZ DÍAZ.
1.- INTRODUCCIÓN.
Muchas de las teorías de la educación aportaron y aportan muchos de los fundamentos prácticos de la
enseñanza diaria, mucho más de lo que estamos acostumbrados a reconocer. El artículo que se presenta intenta
relacionar de manera directa las reflexiones de Lev Vigotsky y su teoría socio histórica sobre el desarrollo
humano y la metodología que se sigue en la Etapa Infantil.
2.- PALABRAS CLAVES.
Zona de desarrollo próxima, andamiaje, guía, procesos psicológicos superiores, interacción, ayuda,
educación infantil.
3.- IMPLICACIONES CIENTÍFICAS.
Las implicaciones científicas sobre la Zona de Desarrollo Próxima, en adelante ZDP, y de procesos
como el andamiaje son mucho más frecuentes de lo que imaginamos en nuestras aulas. El presente artículo
pretende relacionar todo el conjunto teórico propuesto por Vigotsky y la reflexión en la práctica educativa de la
Educación Infantil tal y como veremos en una propuesta teórico-práctica.
En primer lugar debemos realizar una aproximación teórica de los postulados vigotskianos con el fin de
enclavar nuestra reflexión. Según esta teoría el desarrollo no es un proceso estático. Existe una relación estrecha
entre el aprendizaje y el desarrollo humano de manera que los procesos de aprendizaje ponen en marcha los
procesos de desarrollo, por ello se le otorga gran importancia a la intervención del docente como al grupo al que
se pertenezca como mediadores de la cultura y el individuo. El simple contacto con los objeto no produce
aprendizaje, todo debe modularse por un guía o interprete.
Teniendo presente lo anterior, las principales tesis que conforman el núcleo de esta teoría son las
siguientes: en primer lugar los procesos psicológicos superiores, en adelante PPS , tienen un origen histórico y
social. En segundo lugar los instrumentos de mediación (herramientas y signos), cumplen un papel central en la
constitución de tales procesos. Y por último los PPS deben abordarse desde su construcción.
Entre los PPS se pueden distinguir algunos elementales, (el habla) que se internaliza a partir de
actividades sociales espontáneas. Otros en cambio requieren procesos de socialización específicos (lecturaescritura).Queda claro entonces la importancia que reviste el docente en todo este proceso.
Otro concepto que debemos tener presente es el de Zona de Desarrollo Próxima (ZDP), para ello
debemos considerar que en el/la alumno/a existen distintos niveles de aprendizaje, por un lado lo que él/ella
mismo puede lograr (nivel de desarrollo real) y lo que puede hacer con ayuda (nivel de desarrollo potencial).
Entre estos dos niveles es en los que se sitúa la ZDP que supone el espacio en que gracias a la interacción y
ayuda do otros, una persona puede resolver tareas con un nivel que sólo/a no podría ser capaz de realizar. Por
tanto es en la ZDP dónde se deben concentrar los esfuerzos del aprendizaje y de enseñanza y es dónde se
desencadena todo el alumnos proceso de conocimiento de/la alumno/a y se avanza en su desarrollo.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
Como podemos observar a raíz de lo descrito la figura del/la maestro/a adquiere una especial
importancia ya que es la figura que tirará del alumno/a para que se produzca el conocimiento y desarrollo.
Ejercitará una función de mediación entre el/la alumno/a y los contenidos y las herramientas necesarias para
aprender.
Otro concepto necesario es el de andamiaje que haciendo un paralelismo con el mundo de la
construcción. En la ZDP se debe colocar un andamiaje, al igual que en las edificaciones, un poco más debajo de
lo que se construye para que pueda servir de apoyo y pueda moverse con facilidad y pueda poco a poco seguir
construyendo una nueva planta o ZDP. Al final, igual que toda obra, se retirará el andamiaje o ayuda y la
construcción o conocimiento estará afianzado. Es por medio de este andamiaje donde el/la docente interviene y
adquiere un papel protagonista, no sólo en su acción magistral sino proponiendo nuevos y materiales adaptados,
realizando experimentos, diseños de juegos, explicaciones entre compañeros, resolución de problemas,
generando grupos de aprendizaje, etc. Para que el andamiaje tenga el efecto esperado debe reunir las siguientes
condiciones: debe ser ajustable, es decir, debe adaptarse al nivel de competencia del sujeto menos experto y a
los progresos que se produzcan. Por otro lado debe ser temporal es decir no debe permanecer siempre ya que el
alumno/a debe ir adquiriendo mayor autonomía en la construcción de su conocimiento. Y por último debe ser
audible y visible es decir, que el sujeto poco a poco vaya asumiendo un papel protagonista en la realización de
las actividades y éste reconozca.
Una vez logrado la consolidación de la ZDP se establecen nuevos niveles de desarrollo real y potencial
delimitándose una nueva ZDP, volviéndose a generar un nuevo proceso de andamiaje y continuar el aprendizaje
en una ZDP más avanzada.
Pero todo esto no tiene sentido si no se enclava en un marco lúdico. Es el juego el que permite integrar y
desarrollar las ZDP, pero no todos los juegos lo logran. Para que exista un efecto de empuje y aprendizaje el
juego debe poseer reglas y normas socialmente establecidas que permitan ensayar los aprendizajes en un
contexto lo más real posible, así tenemos que cuando jugamos en el rincón de la casita y desempeñamos la tarea
del planchado tenemos que cada paso que realizamos interiorizamos un conjunto de aprendizajes que puestos
en una situación real se suponen un buen campo para producir ZDP.
4.- IMPLICACIONES EN LA PRÁCTICA EDUCATIVA DE LA ETAPA INFANTIL.
Una vez presentado todo este marco teórico inicial, debemos establecer una relación bastante directa
entre el planteamiento vigotskiano y las características de la etapa infantil. No se nos puede pasar por alto que
la etapa infantil guarda muchos paralelismos con las propuestas metodológicas de Vigotsky , así tenemos que
en la mayoría de las propuestas del trabajo en educación infantil se presenten con un andamiaje necesario para
que el/la alumno/a pueda pivotar en el mismo y poder organizar su conocimieto.
Por otro lado podemos observar que el/la maestro/a se convierte en una figura primordial, tiene una
función muy activa en la organización de ese conocimiento, presenta los materiales, los espacios educativos,
activa los aprendizajes, estimula las intervenciones, intercambia roles, genera los diálogos, etc, todo ello se
ajusta en un perfil que coincide con la imagen del docente en la Educación Infantil y que hace que la teoría
sociocultural esté modulando muchos de los procesos de aprendizaje.
Analizaremos ahora todo lo expuesto en un ejemplo práctico. En un aula del segundo ciclo de educación
infantil (5 años), se presenta la unidad didáctica de los “animales domésticos”. Una de las actividades para
iniciar la U.D. es la de partir de los conocimientos previos que posea el alumnado sobre los animales salvajes
para ello el/la maestro/a lanza preguntas tales como ¿qué es un animal doméstico?, ¿por qué se llaman
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
domésticos?, ¿cómo son? ¿dónde viven?, etc . Una vez se conceptualiza y define el concepto a bordar el
maestro/a presenta en papel contínuo en blanco en el que sólo se presenta el título de la U.D. A partir de ese
momento el alumnado podrá aportar, mediante diferentes técnicas guiadas por el/la maestro/a, diferentes
conceptos que a lo largo de la U.D. vayan enriqueciendo el contenido que se presenta.
En la fotografía se puede analizar como partiendo del concepto básico de la U.D. de los animales
domésticos podemos generar un trabajo mucho más amplio y completo en el que el alumnado participa
activamente de su conocimiento y que aporta bajo diferentes técnicas como pueden ser el dibujo, la fotografía,
etc. Debemos observar que las aportaciones realizadas por los alumnos/as se registran en un color diferente a
las que realizar el/la maestro/a. Es un ejemplo gráfico de cómo se va construyendo el conocimiento buscando
esa ZDP que nos proponía Vigotsky y de su andamiaje como sustento del conocimiento.
Otro ejemplo práctico en el que se puede ver la influencia de la teoría de Vigotsky en el día a día de la
Educación Infantil podría ser el proceso de andamiaje que se produce en actividades de la Asamblea . Es aquí
donde el papel del/laa maestro/a adquiere esa connotación de guía del conocimiento que nos planteaba la teoría
sociocultural y que sin lugar a dudas cumple estrictamente con el cometido expuesto.
5.- CONCLUSIONES.
Como conclusión principal podríamos decir que se establecen muchos paralelismos entre la práctica
diaria en la Educación Infantil y la teoría sociocultural lo que la hacen bastante evidente los paralelismos y las
evidencias de las aportaciones de Vigotsky a la enseñanza y en especial a la Educación Infantil. Son varios los
conceptos aportados por esta teoría a la práctica diaria que se ha visto reflejada en las diferentes leyes que han
venido a amparar la educación infantil, así tenemos el concepto del aprendizaje significativo acuñado desde la
LOGSE y que ha sido un principio metodológico que ha acompañado a esta etapa educativa en todo su
desarrollo. Por otro lado tenemos que la mayoría de los principios metodológicos de la etapa infantil guardan
una relación bastante estrecha con los principios de la teoría vigotskiana (aprendizaje a través del juego, acción
y experimentación, proporcionar ambientes cálidos , acogedores y seguros, partir de los conocimientos previos,
enfoque globalizador, etc.)
Por todo lo comentado podemos concluir que los planteamientos de la teoría socio histórica se
relacionan de forma directa con la concepción de la enseñanza en la etapa de la Educación Infantil, tal y como
es concebida en la actualidad y que sin duda alguna esta teoría influye con bastante peso en la propuesta
metodológica de estas edades.
6.- BIBLIOGRAFÍA.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
BAQUERO, R. (1996), "La Zona de Desarrollo Próximo y el análisis de las prácticas educativas", en: Vigotsky
y el aprendizaje escolar, Aique, Buenos Aires, pp.137-167 GALAGOVSKY KURMAN, L.(1993): Hacia un
nuevo rol docente. Troquel. Buenos Aires.
GARDNER:(1997)"La Mente No Escolarizada", Paidos, Buenos Aires.
MOLL, L : "Vygotsky y la educación", Aique, Buenos Aires.
POZO,J (1996. ) : "Teorías Cognitivas del Aprendizaje"; Eds. Morata, Madrid
WERTSCH, J.V.(1993):"Voces de la mente, Un enfoque sociocultural para el estudio de la Acción Mediada"
Visor Distribuciones. Madrid.
EL TEATRO DE SOMBRAS EN EL AULA.
AUTOR: DANIEL RECAMÁN VIÉITEZ
1. RESUMEN - INTRODUCCIÓN.
La intención de este artículo es la de presentar el teatro de sombras como un instrumento
didáctico fascinante que puede servir de guía tanto al alumnado como al profesorado a la hora de
acercarnos no sólo a diferentes cuestiones relacionadas con el mismo sino también a las
pertenecientes a otras disciplinas que integran el curriculum escolar.
2. LAS SOMBRAS ENTRE DOS REALIDADES.
Guido Petter: “Hay pocas cosas, creo yo, tan fascinantes y misteriosas para los niños como
las sombras. Una sombra es al mismo tiempo real e irreal es algo objetivo, pero que, sin embargo,
nos muestra ciertas características que pertenecen a los objetos del mundo físico…” 1. ¿Quién no ha
jugado alguna vez con su sombra? ¿Quién no ha proyectado alguna vez la sombra de sus manos en
la pared o en el techo de la habitación antes de dormirse? Las sombras parten de formas corpóreas,
de una realidad física, pero el más mínimo cambio de las condiciones lumínicas, intensidad, color,
dirección, hace que la sombra cambie provocando en el espectador extrañeza y contradicción ante
lo que en un principio podía identificar de una manera clara. Las sombras insinúan, sugieren,
“deforman”, nos presentan la realidad pero ya transformada, erosionada, para que el espectador
vuelva a reconstruirla.
De esta manera el teatro de sombras, utilizado de una manera directa sin ningún tipo de
sofisticación y de manera próxima la realidad física y conocida, va produciendo imágenes no
corpóreas, fugaces y nos evoca a otra realidad mágica y misteriosa.
3. LA LUZ Y LA SOMBRA EN EL ARTE.
La luz y por lo tanto las sombras han sido utilizadas como materia prima para el arte y la
cultura. De manera similar a la piedra, la arcilla, la madera, etc. La luz ha servido para construir
espacios y ambientes, para definir formas, para sugerir y expresar sensaciones. En muchos
ejemplos de la arquitectura, la luz va configurando, dando carácter a los diferentes espacios que
configuran las viviendas: lugar de trabajo, de reposo, de protección, etc. La luz da un carácter más o
menos sagrado a otros espacios, como los templos egipcios. Con la luz se busca provocar una
impresión al devoto, al visitante. A través de la luz y de los obeliscos los egipcios medían el tiempo.
La luz, la sombra, los jeroglíficos, los altorrelieves, la escritura estaban estrechamente unidos.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
La luz y la sombra remarcan los volúmenes, cambian las escalas, nos engañan sutilmente a la
hora de percibir las formas y espacio como en el Partenón griego. La luz obliga a crear ventanas en
la domus romana, determina la distribución de los distintos espacios de la misma: Los dormitorios y
las bibliotecas deben mirar al oriente; pues su uso requiere luz matutina: también porque en esas
bibliotecas no se pudren los libros: pero si están al mediodía o poniente, los destruye la polilla y la
humedad; pues los vientos húmedos que vienen de dichas partes engendran y mantienen polilla; y
esparciendo sobre los libros vapores húmedos, se enmohecen y corrompen 2.
La luz adquiere valores simbólicos en el medievo. El templo se orienta en función del
nacimiento y la desaparición la luz. La luz como símbolo de la sabiduría. La luz enseñando verdades
espirituales a través de las vidrieras.
En el edificio barroco no vemos de donde viene la luz, nos llega de una manera misteriosa,
volviéndose a crear así un espacio divinizado.
Con la electricidad y la luz artificial el espacio nocturno de la ciudad se convierte en un
espacio controlado. En el siglo XX la luz va desmaterializando poco a poco los edificios. El muro
sustentante es sustituido por el cristal. La luz se convierte en un material de construcción más.
Cuando el escultor esculpe, talla, corta, pega, etc, no sólo piensa en lo que tiene en las
manos si no en lo que no tiene, en la luz. El escultor trabaja con mármol, madera, hierro, plástico
pero también con luz y sombra. En la escultura el exceso o la falta de luz pueden hacer desaparecer
las formas. La luz condiciona las formas escultóricas, como en la Antigua Grecia, obligando a que a
la hora de esculpir haya que alejar algunas proporciones de la realidad para poder ser percibidas
correctamente. La luz y la sombra determinan las uniones de las partes de la escultura,
suavizándolas o marcándolas con ángulos vivos. La luz incluso llega a ser la protagonista y
prácticamente único material de la obra escultórica, como en la década de los 60 con los
minimalistas.
El nacimiento de la electricidad y por lo tanto de la luz eléctrica marca un antes y un después
en la historia occidental. Supone el nacimiento de muchas cosas para la cultura: la fotografía, el cine,
la televisión, etc. Con ello la luz es un generador de cultura, crea memoria, materializa ideas, la luz
informa, comunica, etc.
Teniendo en cuenta esto y otras muchas cuestiones, podemos pensar que la luz y la sombra
pueden ser elementos, materiales, conceptos, etc. perfectamente válidos para incluir en una
programación dentro del aula.
4. LAS SOMBRAS CHINESCAS EN EL AULA.
El teatro de sombras es realmente un arte integral en el que se encuentran y complementan
obras teatrales, literarias, plásticas, musicales, etc. El alumno construye las figuras (plástica), el
guión (literatura), es actor y es espectador. Por lo tanto a través del teatro de sombras podemos
conseguir una serie de objetivos que son propios de diferentes disciplinas.
Como TEATRO en general y de sombras en particular, algunos de los objetivos y beneficios
que podemos alcanzar a través del teatro serían los siguientes:
-El teatro funciona como juego, con todo lo que esto conlleva. El juego es una forma de aprender de
manera espontánea, natural, emotiva e intelectual. El atractivo del teatro como juego y técnica
pedagógica radica en sus componentes dinámicos, participativos.
-El juego dramático funciona también como una manera de evasión, de liberación, al poder adoptar
diferentes roles, imitar diferentes realidades, facilitando la expresión afectiva y emocional. Esta
posibilidad de salir de uno mismo ofrece la posibilidad de conocerse y de conocer otras formas de
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
pensar. Se desarrolla de esta manera la empatía favoreciendo cuestiones como la convivencia, la
integración y el respeto mutuo. Podía llegar a ser incluso un medio de reinserción escolar.
-A nivel de desarrollo cognitivo, a través del teatro se desarrollan la memoria y la imaginación. Se
mejora la capacidad de destacar y retener con más precisión los contenidos.
-Ayuda al conocimiento del propio cuerpo, aunque sea el de una marioneta, y de las posibilidades
expresivas y liberadoras a través del mismo.
-Puede suponer un refuerzo en la adquisición del sentido de ordenación temporal y espacial de
aquello que se quiere relatar.
-En definitiva con el juego del teatro estamos fomentando el aprendizaje a través de la experiencia.
-La naturaleza sencilla y cercana del teatro de sombras en contraposición con los medios de
expresión tan sofisticados y maquinizados, hace que nos sintamos próximos, cercanos a lo que se
cuenta a través de él.
-La cualidad de intangibilidad de las sombras pueden ayudar al desarrollo de la capacidad de
abstracción en los niños y adolescentes.
-Son un medio ideal para crear y contar historias. Desarrolla el vínculo entre lo real y racional con la
fantasía.
-Ofrece una facilidad técnica, gasto económico bajo, grado de inventiva alto, facilidad de
manipulación y puesta en escena.
Como OBRA PLÁSTICA:
-Se desarrolla la capacidad de síntesis y abstracción formal a la hora de realizar siluetas.
-Se ejercitan las capacidades y habilidades manuales, sobre todo a la hora de trabajar los detalles.
-Se valora las posibilidades expresivas de elementos no habituales dentro de la educación plástica
como son la luz y la sombra.
-Conocimiento de la naturaleza física de la luz y el color con sus mezclas.
-Se profundiza en el concepto de contorno y dintorno y en el de silueta. Se experimenta con
proyecciones de figuras de frente o de perfil.
-El alumno comprobará la dificultad de representar en la pantalla el volumen o profundidad, sobre
todo a través de elementos como la perspectiva, pero descubrirá que a pesar de eso otro factor
como el desenfoque puede ser utilizado para dar la sensación de profundidad, a la vez se valorará
las posibilidades expresivas y comunicativas de la bidimensionalidad.
-Se despierta el interés por la obra literaria a través de la obra plástica y/o viceversa, al utilizar un
medio y lenguaje actual, cercano al alumno.
Como OBRA LITERARIA:
-Se trabaja y desarrolla de la capacidad de síntesis. La capacidad de convertir un texto en una obra
audiovisual.
-Se inicia al niño-adolescente en la comprensión de una historia argumental participando de esta
manera en el fomento y desarrollo de la comprensión lectora, despertando el interés por la lectura.
-Permite desarrollar la capacidad de traducir de un lenguaje comunicativo a otro, establecer
diferencias, interrelaciones y valoraciones entre ellos.
OTRAS APORTACIONES:
-Con el teatro de sombras podemos desarrollar la capacidad de observación en los niños.
-Fomentar la creatividad:
-Distintas maneras de representar los personajes, los textos, etc.
-Medio con posibilidades infinitas: siempre hay cosas que contar, y las posibilidades de contarlo
son múltiples.
-Elemento motivador por su cercanía con el niño.
-Etc.
-Es un importante instrumento del desarrollo de la capacidad expresiva.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
-Proporciona un conjunto de signos que facilitan dicha capacidad.
-Puede dar seguridad al niño a la hora de expresarse ya que es un medio que le puede
resultar cercano.
-Es un instrumento para fomentar el trabajo en grupo. Una de las características de la naturaleza de
la obra audiovisual es la de ser un trabajo que debe ser realizado por un equipo de personas, con
unas funciones más o menos definidas y a la vez dependientes unas de otras.
-Facilita el camino para la autonomía personal.
Idoneidad dentro del centro educativo y del aula.
Hasta ahora hemos citado algunos beneficios que puede aportar el teatro de sombras en el
aprendizaje y desarrollo pedagógico. A continuación mencionaremos algunas razones por las que el
teatro puede ser de mucha utilidad y poseer un grado de idoneidad importante dentro de un aula y
de un centro educativo:
-Versatilidad. Dentro de un centro educativo, una obra hecha para el teatro de sombras permite ser
adaptada a diferentes necesidades y propuestas didácticas que se dan a lo largo del curso escolar y
a los cambios que se producen de un curso a otro, ya que a través del teatro podemos narrar
cualquier tipo de historia, relacionadas con las diferentes materias dentro del plan educativo de un
centro y lo podemos hacer de muchas maneras.
-Transversalidad. Su carácter multimedia permite que numerosas disciplinas que integran un sistema
educativo participen de manera conjunta en la elaboración de un proyecto centrado en la creación de
esa obra teatral. Podemos hacer una obra de teatro de sombras sobre un hecho o personaje
histórico (Ciencias Sociales e Historia). Necesitaremos también conocimientos de cómo se
estructura y crea un texto literario (Lengua y Literatura). Para la construcción de la pantalla donde se
van a proyectar las sombras y estructuras que soportan las siluetas necesitaremos de la
participación del Departamento de Tecnología, etc.
-Por si mismo puede funcionar como elemento vertebrador y unificador de una programación
didáctica de cualquier materia a lo largo de un curso escolar permitiendo que se aborden los
diversos contenidos propios de las asignaturas entorno a la creación y desarrollo de esta obra
teatral. Funcionaría como un proyecto para un curso o un trimestre.
5. ¿CÓMO ABORDAR LA REALIZACIÓN DE UNA OBRA DE TEATRO DE SOMBRAS EN EL
AULA?
5.1. ALGUNAS CUESTIONES PREVIAS.
Partiendo de una serie de premisas como que probablemente el alumno no tenga
conocimientos ni preparación suficiente en dibujo y que los recursos de un centro normalmente son
escasos, deberíamos tener en cuenta ciertas cuestiones a la hora de utilizar el teatro de sombras
como parte de una programación didáctica:
-Buscar sencillez en el dibujo y diseño de personajes y fondos.
-Utilizar materiales de reciclaje y económicos.
-La obra no debe ser demasiado larga. Debe poseer un lenguaje relativamente sencillo. No debe
tener demasiados personajes con el fin de que sea más fácil la manipulación detrás de la pantalla.
-Los personajes e historias que se identifiquen con los alumnos.
5.2. EL DISEÑO.
1. del guión.
Inicialmente se podrían hacer una serie de lecturas iniciales de varias obras dramáticas.
Lecturas individuales y en grupo, improvisando dramatizaciones, etc. En esta fase se colaboraría
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
con el Departamento de Lengua y Literatura. Trabajaremos con los alumnos aspectos del lenguaje
oral (pronunciación, entonación), de expresión escrita (signos de puntuación, léxico…), etc.
El guión podría ser inventado completamente por el alumno o adaptado de uno ya existente. A
la hora de sacar ideas se podrían utilizar diferentes técnicas de desarrollo de la creatividad,
ejercicios como el presentar a los alumnos unos personajes ya definidos y construidos y que ellos
realicen el guión a partir de las características de los mismos, el que a partir de una frase cada
alumno, por orden, vaya aportado otras que tengan cierta relación con la anterior de manera
sucesiva hasta construir una historia con más o menos sentido, etc.
Los temas o ideas principales del guión podrían ser extraídos de numerosas fuentes: sucesos
actuales obtenidos de los medios de comunicación de masas, temas tratados en algunas
asignaturas como por ejemplo algún acontecimiento histórico o biografía de algún personaje
histórico que los alumnos estén tratando en el área de historia, etc. También se podría utilizar una
historia de un cómic adaptándola para convertirla en una obra teatral de sombras, donde incluso los
diálogos en vez de ser narrados por los alumnos se podrían presentar a base de siluetas con forma
de los bocadillos, onomatopeyas y otros recursos lingüísticos del cómic, etc.
2. de personajes y fondo.
Los personajes. Para el diseño de los personajes se podría hacer una recopilación y posterior
clasificación de diferentes ejemplos de diseños de personajes ya existentes en el mundo del teatro
de sombras, de la ilustración, del cómic o de otras fuentes. A partir de ahí se analizarían los
elementos gráfico-plásticos, propiedades anatómicas, tipologías de ojos, bocas, expresiones,
vestuario, (el uso del color, de las líneas…), estilos, etc. Una vez hecho esto pasaríamos a un
proceso de síntesis donde diseñaríamos nuestros propios personajes en función de las
características de los personajes de nuestra historia, previo análisis de las características sicológicas
y físicas de los personajes y de los lugares donde se desarrolla la acción. Como ya hemos dicho no
tienen por que ser diseños sofisticados, se pueden obtener interesantes resultados con formas
anatómicas hechas a base de figuras geométricas. En esta fase ya se empezaría a tener en cuenta
las características técnicas que veremos posteriormente.
Los fondos: trabajados de manera similar a los personajes.
5.3. CONSTRUCCIÓN.
1. Los personajes.
A continuación se pasaría a hacer los dibujos definitivos sobre el material que vamos a utilizar
para las siluetas, en función de si las queremos completamente en negro, con perforaciones o
transparentes. A la hora de dibujar las figuras tenemos numerosas posibilidades: dibujar
directamente, utilizar papel de calco para transferir imágenes, imprimir directamente por diversos
medios, etc. Todo ello en función del tipo de técnica y material que usemos para construir nuestras
siluetas. Una vez dibujadas sobre los materiales correspondientes pasaremos al recorte de las
mismas.
TÉCNICA DE SILUETAS.
En esta técnica tenemos que trabajar entorno a conceptos como el de formas
bidimensionales, el perfil, el contorno y dintorno. En principio es una técnica sencilla ya que la silueta
en si se asemejan a la sombra proyectada y por lo tanto podemos controlar o preveer el resultado.
TIPOS DE SILUETAS.
1. De sombra negra. No tiene perforaciones. Los personajes y demás figuras de la obra se deben
realizar teniendo en cuenta básicamente que no les podemos añadir elementos morfológicos a las
figuras en el interior de las mismas ya que éstos no se apreciarían a través de la pantalla. Todas las
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
figuras se deben realizar de perfil, a modo de figuras egipcias, tratando de destacar en el contorno
los elementos que necesitamos para expresar lo que queremos, por ejemplo: los labios, las manos,
etc.
2. Sombra perforada. Se podrían utilizar los mismos materiales que en la sombra negra pero
sabiendo que este tipo de silueta presenta una serie de dificultades técnicas. Al perforar la silueta,
ésta se va a debilitar. Por lo tanto sería bueno utilizar materiales más bien rígidos. Como se deduce
por el nombre, la técnica en este tipo de siluetas consiste en ir perforando la misma, de manera que
la luz pueda pasar a través de ellas. Se trabajaría con el juego de vacíos y llenos, blanco y negro, de
positivo y negativo. Ya no es tan importante insistir en el concepto de la silueta de perfil, aquí se
puede jugar con el frente. Los vacíos pueden dejarse tal cual o cubrirlos con papel de celofán,
acetatos de colores y cualquier tipo de superficie tamizada o traslúcida.
3. Sombras completamente transparentes: Se dibuja la silueta, sobre una superficie más bien rígida
que puede ser una plancha de acetato básico y se pegan otros fragmentos de colores sobre esa
plancha base. Es una técnica más difícil, no permite ningún fallo ni en la elaboración de las figuras ni
en la manipulación de las mismas a la hora de la dramatización.
MATERIALES, HERRAMIENTAS Y TÉCNICAS.
1. Un primer material en el que podemos pensar sería el del cartón o cartulina. Es apropiado para el
ámbito escolar por su bajo coste y facilidad de manejo así como la obtención de resultados
interesantes. Se puede dibujar de manera fácil sobre el cartón. Si utilizamos la cartulina tenemos
que tener en cuenta que las figuras no pueden ser tan grandes como las obtenidas en cartón.
Las herramientas que se necesitan para realizar las siluetas con el cartón serían básicamente:
tijeras, listones de madera para los bastidores, alambre, pegamento y esparadrapo. Los tipos de
cartón son variados: cartón corrugado simple o doble, cartón pluma, cartón piedra, etc., cada uno
con diversas características a la hora de ser manipulados y de durabilidad. Prácticamente en todos
los tipos de cartón es necesario que se rematen bien los bordes, haciendo que queden lisos, ya que
suelen quedar flecos o rebabas después de cortar. En caso de no realizar este acabado de los
bordes, los flecos se verían posteriormente en la pantalla.
2. Otro material podría se la madera. Se podrían usar tablas de marquetería. Estas nos aportan una
mayor durabilidad y resistencia que el cartón. Con ellas se podrían hacer siluetas de mayor tamaño.
Necesitaríamos por otro lado otro tipo de herramientas, como sierras de marquetería, cola, tornillos,
etc.
La técnica a la hora de dar movimiento a las siluetas hechas con cartón o cartulina se basa en
la utilización por un lado de varillas horizontales y verticales sujetas con cinta adhesiva sobre todo
con la cartulina y grapas cuando las siluetas son de cartón. Las articulaciones pueden ser creadas
con remaches, muelles, gomas elásticas, etc. Con la madera se podrían utilizar, para las
articulaciones, bisagras de diferentes tamaños y formas en función del grosor de la madera. A la
hora de sujetar la silueta también se pueden usar varillas de manera similar que con el cartón.
TÉCNICA CON FORMAS VOLUMÉTRICAS.
Pueden ser realizadas a partir de cualquier elemento o incluso podríamos utilizar objetos
encontrados, naturales o artificiales, cualquier elemento puede formar sombras interesantes y
válidas para el teatro de sombras. Éstas ofrecen un mayor número de sombras que las planas, y con
un carácter más sofisticado. Posee un lenguaje más complejo, incluso pueden generar imágenes
donde se pueda intuir cierto volumen. La sombra de una rama o de una hoja de un árbol proyectada
en una pantalla puede ser evocarnos un árbol, que al girarla adquiere más matices que una sombra
hecha a base de siluetas. Nuestro cuerpo, y en concreto las manos, ha sido la primera herramienta
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
del hombre y como tal nos puede servir para crear una obra teatral de sombras, sombras corporales.
Han sido las primeras sombras con las que tenemos contacto de hecho uno de los teatros más
antiguos es el de las sombras hechas de esta manera, originalmente de China, las sombras
chinescas.
2. La pantalla.
EL TAMAÑO de la pantalla estará en función del número de personas que van o pueden estar
detrás de la misma manipulando las siluetas. También hay que tener en cuenta el lugar donde se
van a representar las obras, ya que si el lugar es relativamente grande la pantalla necesitaría unas
dimensiones grandes para que las sombras puedan ser apreciadas por todos. Lo que se puede
hacer es construir dos pantallas con dos tamaños, uno pequeño para realizar las representaciones
en el aula, con obras pequeñas donde, como mucho, dos alumnos serían los que van a estar detrás
de la pantalla, y otra de un tamaño mayor para obras con más personajes, con más de dos alumnos
detrás manipulándolos y que sirva para utilizarla en un salón grande.
LOS MATERIALES. Normalmente se utiliza una tela de sábana, que no sea muy tupida,
sobretodo para las pantallas de gran tamaño. Planchas de metacrilato, papel vegetal u otros
materiales sintéticos cuando las dimensiones no son mayores de 1metro. La pantalla, fijada sobre
una superficie o estructura fija, debe tener cierta inclinación hacia atrás. Esta inclinación sirve para
que las siluetas se apoyen completamente en la pantalla.
SISTEMAS DE SUJECIÓN.
El bastidor suele ser el más usado. Además de usarse como soporte de la pantalla lo puede
ser incluso del foco o focos de luz. Lo más sencillo, y posiblemente lo más económico, es construirlo
de madera al cual se fijará la pantalla. Se puede utilizar también barras metálicas que permiten una
mayor facilidad de montaje, de transporte y de almacenamiento. También ofrecen una mayor
durabilidad, e incluso menor peso en el caso de utilizar barras de aluminio.
Usar un armario, con ruedas mejor, también podría ser otra solución. Se le extrae el panel
posterior y para evitar que de esta manera quede debilitado, se refuerza con unos ángulos metálicos
en las esquinas. El armario tendrá que ser amplio para que entren al menos dos personas y se
puedan mover de una manera cómoda dentro de él. La pantalla se sujetaría por dentro y lo más
cerca posible de las puertas. Con este sistema además de servirnos para sujetar la pantalla nos vale
para guardar las siluetas y focos dentro del mismo. Se podría además decorar las puertas.
Otro sistema de sujeción consistiría en anclar a dos de las paredes del aula una cuerda de donde
iría colgada la tela sin más. La ventaja de este sistema es su facilidad a la hora de montar,
desmontar y almacenar.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
3. La iluminación.
TIPOS DE PROYECTORES:
-Los proyectores de diapositivas poseen un haz de luz potente. Permite proyectar diapositivas que
se pueden usar como fondos y nos dan la opción de usar color. Normalmente se necesita una gran
distancia entre el proyector y la pantalla y no permite grandes variaciones de tamaño de las sombras
cuando alejamos o acercamos las siluetas a la pantalla.
-Focos. Poseen normalmente un haz de luz potente y amplio. Permite cambios de tamaño en las
sombras con pequeñas variaciones en la distancia entre las siluetas y la pantalla.
-Otros proyectores de luz podrían ser bombillas, linternas o incluso velas.
DIRECCIÓN DE LA LUZ: normalmente la luz se deja caer desde arriba para evitar que las
siluetas de los que manejan las siluetas queden reflejadas en la pantalla.
INTENSIDAD DE LA LUZ. Se pueden usar luces de diferentes intensidades o con sistemas
que regulan dicha intensidad, para hacer desaparecer de una manera suave a los personajes de la
escena y dar paso a otros.
COLOR DE LA LUZ. El uso de colores, mediante filtros, permite aportar a las obras otra serie
de significados, recursos plásticos y dramáticos.
A partir del conocimiento de estos elementos y recursos básicos, sería bueno e importante el
adquirir destrezas, resultados plásticos y dramáticos interesantes a través de la
EXPERIMENTACIÓN.
4. Técnicas tradicionales.
A continuación mencionaré algunas técnicas tradicionales usadas en diferentes países desde
hace muchos años, algunas de ellas relacionadas con los orígenes mismos del teatro de sombras.
De ellas podemos sacar ideas tanto técnicas como plásticas para aplicarlas en nuestro proyecto del
aula.
En China se usan siluetas de unos 60 cm, sujetadas por la cabeza y los brazos con varillas
horizontales. Las siluetas están articuladas en numerosos puntos, teniendo gran movilidad. Son
traslucidas, caladas y coloreadas. Se utilizan pegadas a la pantalla. Ésta se ilumina desde cerca,
quedando el actor detrás de la luz. Esto da lugar a apariciones rápidas y a no utilizar las sensaciones
de profundidad ni de difuminación de la imagen, ya que en cuanto se alejan de la pantalla
desaparecen
En India el teatro de sombras que se utiliza está cerrado por todas partes, quedando una
ventana iluminada difusamente por una lámpara colgada desde arriba y muy pegada a la pantalla.
Las figuras son grandes y traslucidas, articuladas en brazos y piernas y sujetas por una sola varilla
desde abajo y enganchada a la cabeza.
En Java aparecen las figuras con volumen, lo que permite ver distintas sombras de una
misma figura a medida que gira. No se usan pegadas a la pantalla. Se ven tanto las figuras como los
actores.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
En Turquía las siluetas son similares a las usadas en China. La luz no está pegada a la
pantalla lo que permite alejamientos y acercamientos de las figuras y con los consiguientes
aumentos de tamaños.
5.4. A ESCENA.
PRIMEROS EJERCICIOS. Una vez que ya tenemos nuestro guión realizado, las siluetas, la
pantalla y el/los focos con las características que creamos convenientes, pasaríamos a realizar una
serie de ejercicios iniciales con un fin de experimentación para familiarizarnos con esta técnica
expresiva, y también poder obtener resultados plásticos y dramáticos que pudiésemos incorporar a
nuestra obra.
Una primera actividad podría consistir en hacer una serie de ensayos con las sombras
proyectadas por nuestros propios cuerpos en la pantalla que hemos construido. Es importante que
los otros alumnos vayan comprobando como se deforma la silueta a medida que se van cambiando
los que están detrás de la pantalla, o cuando lo que cambia son las características de la luz:
intensidad, color, distancia… deben tener claro la relación de los cambios de las sombras con las
posiciones relativas del foco. ¿Cómo podemos agrandar y empequeñecer una misma forma? ¿Cómo
funciona una sombra al colocar la figura de frente o de perfil? ¿Los bordes como hacer que sean
difuminados o bien definidos? ¿Cómo podemos conseguir volumen?
En una segunda actividad los alumnos podrán jugar a adivinar quien está detrás, de manera
que el alumno que está detrás de esa pantalla cambie de posición, alejándose, acercándose,
girándose, etc.
En la tercera actividad utilizaremos las sombras de diferentes objetos de manera que los
alumnos deben adivinar cuales son.
Otra actividad consistiría en unir de diferentes maneras los objetos para obtener proyecciones
que recuerden a otras figuras que no tengan relación con los objetos que forman dichas sombras.
ENSAYOS.
Después de estos primeros ejercicios iniciales para familiarizarnos con este medio de
expresión pasaríamos a realizar una serie de ensayos. Ensayos de los movimientos, ensayos de los
diálogos, de la sincronización con la música, de cómo colocaríamos cada elemento detrás de la
pantalla, etc.
En esta fase podríamos establecer el número de alumnos que van a manejar las siluetas
detrás de la pantalla. Este número está en relación, básicamente, con la cantidad de siluetas que
aparecen en cada escena así como con el espacio disponible detrás de la pantalla. Es tan
importante el ensayar lo que aparece delante de la pantalla como la organización que hay detrás de
ella.
Podríamos ahondar en detalles pero creo que con esta planificación se podría abordar la
realización de un teatro de sombras de una manera organizada, en donde los alumnos de una forma
autónoma, con el profesor como orientador y coordinador, podrían conseguir unos resultados
pedagógicos y lúdicos muy interesantes.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
ISSN 1696-7208 DEPO. LEGAL: SE-3792-06
NÚMERO 63 – MAYO 2010
BIBLIOGRAFÍA.
-Angoloti, C. Cómics, títeres y teatro de sombras: tres formas plásticas de contar historias.
Ediciones de la Torre, Madrid 1990.
-Olivares Torruella, Pedro A. ¡ARRIBA EL TELÓN! Técnicas para el montaje de obras de teatro
enseñanza. Editorial André Bello, Santiago de Chile 1990.
-González, Arsenio M. Escuchar, hablar, leer y escribir: Actividades con el lenguaje. Ediciones de la Torre, Madrid 2000.
1. Petter, G., Catálogo de la exposición, “I Centro Linguaggi dei Bambini”, Comune di Reggio Emilia
1984, pp. 71-72.
2. VITRUVIO POLIÓN, Marco. Los Diez Libros de Arquitectura. Madrid : Ed. Akal, S. A. 1987.
C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]