ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 CÓMO FAMILIARIZAR AL MUNDO EDUCATIVO SOBRE EL USO DE LAS TIC AUTOR: ANTONIO JUAN NIETO BRAVO Resumen: A continuación se hará una breve exposición de las diferentes opciones y posibilidades existentes para familiarizar a los agentes educativos en el uso y aprovechamiento de las nuevas tecnologías. 1. Introducción La "sociedad de la información" en general y las nuevas tecnologías en particular inciden de manera significativa en todos los niveles del mundo educativo. Las nuevas generaciones van asimilando de manera natural esta nueva cultura que se va conformando y que para nosotros conlleva muchas veces importantes esfuerzos de formación, de adaptación y de "desaprender" muchas cosas que ahora "se hacen de otra forma" o que simplemente ya no sirven. Con las Tecnologías de la Información y la Comunicación (TIC), se inicia un enorme cambio en el mundo educativo, que pasará a depender directamente de lo que ya se conoce como “Industria TIC”, formado por un enorme conjunto de empresas, tanto gigantes corporaciones internacionales como multitud de pequeñas y medianas empresas (pymes). Este cambio total en el sistema educativo origina que exista un enorme interés empresarial en proveer de todos los servicios necesarios al mundo docente. Por ello, para un cambio de dimensiones tan grandes, existen muchos factores a tener en cuenta para analizar la forma de implantación de las TIC. En este documento se va a proceder a analizar las formas de familiarizar a los distintos agentes educativos en el uso de las TIC, y la forma de aprovechar en su propio beneficio y en el del mundo educativo en general las posibilidades que se abren con la implantación de estas nuevas tecnologías, así como el material y los recursos que puedan llegar a ser necesarios. 2. Familiarizar al profesorado Hoy en día es bastante común que el personal docente que lleva ejerciendo la profesión durante bastantes años, no esté familiarizado en absoluto con el uso y las posibilidades de las nuevas tecnologías, así como el valor pedagógico que se puede obtener de ellas. Lo contrario suele ocurrir C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 en profesores que acaban de comenzar su carrera profesional, ya que el uso de las tecnologías suele ser más habitual en personas de menor edad. Por ello, se hace especialmente importante poder familiarizar a todo el conjunto de profesores con las TIC, y unificar este conocimiento cuanto antes. Algunos de los aspectos que se pueden tratar para ayudar a los docentes a entrar en contacto con las nuevas tecnologías, y especialmente a usarlas en beneficio de la capacidad de enseñanza de los mismos, son los siguientes: • Poseer un ordenador personal tanto en el centro de trabajo como en casa, con el objetivo de acostumbrarse a manejar esta importantísima herramienta independientemente del contexto en el que se quiera usar. Es muy importante tener soltura en el manejo de computadoras, ya que son la base técnica sobre la que se sustentan todas las opciones que ofrecen las nuevas tecnologías. • Formación personalizada. Se deben crear y mantener continuos cursos educativos para ayudar al profesorado a iniciar su andadura en el uso de las TIC, y posteriormente para explicar opciones educativas más complejas. Para ello se debe disponer de una oferta de cursos muy amplia, de forma que cada docente pueda escoger el que mejor se adapte a sus necesidades personales. • Apoyo. Es muy importante por parte del colectivo docente el poder sentir y contar con el apoyo de las Administraciones, así como de la propia dirección del centro. Esta es una característica necesaria sobre cualquier temática en general, pero especialmente importante para la adaptación de las TIC a nuestro entramado educativo. • Recursos materiales. De igual forma, se necesita de los suficientes recursos materiales para poder llevar a cabo la actividad pedagógica de forma lógica, coherente y eficaz. Entre los distintos recursos que deberían ser necesarios para un profesor familiarizado en las nuevas tecnologías podemos destacar: o Pizarra digital, compuesta de ordenador del profesor junto con un video proyector, para apoyarse a la hora de impartir las clases. o Salas de estudio, tanto exclusivas de informática como multiusos para poder realizar las actividades que el docente considere pertinentes. o Buena conexión, que permita a los profesores poder desarrollar su trabajo con celeridad, y explotar todas las posibilidades que se le ofrecen para comunicarse con el resto de docentes, los alumnos o sus familiares sin ningún problema técnico que necesite ser resuelto. • Recursos logísticos. Al igual que es necesario poder disponer de los suficientes recursos materiales, resulta necesario disponer de los distintos recursos logísticos o “de software” que permitan al docente mejorar la experiencia educativa de sus alumnos, y poder ofrecer un aprendizaje de mayor calidad. Entre los distintos recursos de este tipo que podemos identificar, se encuentran: o Comunidades virtuales, tanto exclusivas para docentes como comunidades específicas por materias o directamente entre alumnos y profesor, con las que el docente puede tanto mejorar su formación y conocimientos como la calidad de la enseñanza que imparte a sus alumnos. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 o Portales educativos, que ofrezcan a cada docente los suficientes recursos didácticos digitales. 3. Familiarizar al alumnado Es un error pensar que el alumnado está familiarizado con las TIC, ya que sería más correcto decir que están familiarizados con el ordenador en general. Los alumnos, en su gran mayoría, no conocen sistemas de cursos virtuales o las mejores formas de buscar información veraz, sino más bien chatear con programas de mensajería instantánea y usar redes sociales. Por ello, este grupo también debe ser familiarizado con las TIC, y los siguientes puntos son especialmente recomendables para ello: • Recursos materiales. Los alumnos también necesitan disponer de una serie de recursos materiales, al igual que los profesores, para poder desarrollarse con las nuevas tecnologías, esencialmente: o Ordenador personal, como mínimo en casa y a ser posible en el aula, ya sea propio o compartido. o Salas de estudio, tanto específicas como de múltiples usos, en las que poder desarrollar las actividades pedagógicas que sean necesarias. • Recursos logísticos. De igual manera, los estudiantes también necesitan disponer de suficientes recursos logísticos, esencialmente en tres sentidos: o Plataforma virtual, que ofrezca un buen acceso específico al alumno, así como un entorno colaborativo en el que llevar a cabo su tarea. o Canales de comunicación, tanto entre alumnos como entre los alumnos y sus respectivos profesores. o Recursos digitales, prestados por el profesorado para que el alumnado pueda estudiarlos en cualquier momento. • Educación en TIC. Como se ha comentado en la introducción de este mismo punto, también resulta necesario alfabetizar al alumnado respecto del uso de las tecnologías con fines educativos. Esta tarea será desarrollada a lo largo de la vida académica del estudiante por sus respectivos profesores. • TIC en casa. Por último, resulta necesario saber promover el uso de las TIC en casa, al margen del uso lúdico que los alumnos pueden hacer de las tecnologías. 4. Conclusiones Se han comentado las distintas vías para familiarizar a los agentes educativos (esto es, al alumnado y personal docente) con la Tecnologías de la información y la Comunicación. Si bien una buena parte del profesorado no tiene una cultura tecnológica avanzada, el alumnado sí suele poseerla, por haber crecido en medo de la Sociedad de la Información. En cualquier caso, C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 ambos sectores necesitan por igual estar debidamente familiarizados con el nuevo entorno educativo que se está construyendo. Para ello, en menor o mayor medida, ambos necesitan una serie de elementos que podemos resumir de la siguiente manera: • Recursos materiales, sobre los cuales trabajar. • Recursos logísticos, a partir de los cuales se desarrollan los distintos contenidos educativos, permitiendo además un canal de comunicación extra para interrelacionar a las distintas personas que intervienen en el proceso educativo • Disponibilidad personal, de recursos materiales propios para poder continuar con el aprendizaje en cualquier momento que pueda resultar necesario. IMPLANTACIÓN DE LAS TIC EN LA ENSEÑANZA DE MATEMÁTICAS: GEOGEBRA AUTOR: ANTONIO JUAN NIETO BRAVO Resumen: A continuación se hará una breve exposición de las características de una aplicación matemática online, geogebra, introduciendo también al lector sobre la relación existente entre las nuevas tecnologías y la educación en las matemáticas. 1. El software y la enseñanza Actualmente se tiende en el mundo educativo cada vez más al uso de sistemas operativos libres, con la finalidad de ahorrar las costosas licencias de Microsoft. Esto se debe principalmente a la inserción de ordenadores en las aulas, con el objetivo principal de integrar las TIC en el mundo educativo. Al aumentar drásticamente el número de computadoras y, por tanto, el número de licencias necesarias, se está optando cada vez más por un sistema operativo libre existente o, en su defecto, la construcción personalizada de un sistema operativo propio, focalizando en su construcción las necesidades propias. Tres ejemplos de este tipo de actuación podemos encontrarlos en las comunidades autónomas de Cataluña, Extremadura o Andalucía, con sus propias distribuciones creadas con las necesidades específicas: Linkat, Linex y GuadaLinex: Linkat es la distribución GNU/Linux del Departamento de Enseñanza de la Generalidad de Cataluña. Está basada en la distribución SUSE Linux Enterprise Desktop (SLED) y el funcionamiento de los programas se basa en paquetes rpm. Actualmente está en fase 2.1 y C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 utiliza por defecto el entorno de escritorio Gnome, aunque también están disponibles los entornos KDE y XFCE. LinEx es una distribución Linux libre basada en Debian GNU/Linux y GNOME, contando con OpenOffice.org como suite ofimática, entre otras aplicaciones. Está impulsado por la Consejería de Economía, Comercio e Innovación de la Comunidad Autónoma de Extremadura (España), siendo pionero y secundado por otros organismos públicos y privados del resto de España. Durante un periodo considerable de tiempo, la comunidad extremeña ofreció también apoyo a la de Andalucía (la cual se inspiró en Linex para desarrollar Guadalinex) en la implantación de soluciones abiertas en colegios, administración, etc. Guadalinex es una distribución Linux promovida por la Junta de Andalucía para fomentar el uso del software libre en su comunidad autónoma. Está inspirada en GnuLinEx, un proyecto similar de la Junta de Extremadura. Inicialmente estuvo basada en Debian GNU/Linux debido al acuerdo inicial entre la Junta de Andalucía y la de Extremadura, y desde la versión 3.0 se basa en Ubuntu. Con esta revolución de software, los programadores en software libre se han volcado para ofrecer soluciones a las Comunidades en todos los ámbitos, incluido y especialmente focalizado en el educativo, creando multitud de herramientas educativas. En este documento vamos a estudiar una herramienta que se puede encontrar para la enseñanza de las matemáticas, aunque antes vamos a analizar los distintos tipos de herramientas que podemos encontrar en Internet para aplicarlas a las clases, en el apartado siguiente. 2. Tipos de Software Antes de comentar algunos de los mejores programas sobre matemáticas, es importante recordar los tipos de software que nos podemos encontrar, de mayor a menor grado de libertad sobre la aplicación y necesidades económicas para adquirirla: Un software propietario, también conocido como software privativo o de código cerrado, se refiere a cualquier programa en el que los usuarios tienen limitadas las posibilidades de usarlo, modificarlo o redistribuirlo (con o sin modificaciones), o cuyo código fuente no está disponible o el acceso a éste se encuentra restringido. Una aplicación shareware permite una evaluación inicial del producto, con una serie de restricciones sobre el software original, que generalmente abarcan restricciones temporales (por ejemplo, la posibilidad de usar el programa durante 30 días) o con limitaciones en la funcionalidad de la aplicación. Para obtener el producto final, se debería comprar una licencia, con lo que se desbloquearían las limitaciones de la aplicación. Una aplicación freeware se puede obtener gratuitamente y por un tiempo ilimitado. A veces se incluye el código fuente aunque no es lo habitual. Ofrece una serie de restricciones en su distribución, generalmente la prohibición de modificar por cuenta propia la aplicación, entre otras. Un software es libre o de código abierto (open source, GPL) da una serie de libertades una vez adquirido (generalmente sin necesidad de pagar por él): la libertad de usar el programa, C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo cual se puede ayudar a otros, y de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie. Una vez vistos los tipos de aplicaciones que nos podemos encontrar en la red de redes, vamos a analizar algunas aplicaciones matemáticas disponibles online (en una página web), especialmente diseñadas a la enseñanza de las matemáticas. 3. Geogebra GeoGebra es un software de matemática para educación en todos sus niveles, que reúne dinámicamente, aritmética, geometría, álgebra y cálculo. Ofrece múltiples representaciones de los objetos desde cada una de sus posibles perspectivas: vistas gráficas, algebraicas y hojas de datos dinámicamente vinculadas. En tanto GeoGebra es un sistema de geometría dinámica (como Cabri o SketchPad Geométrico) centrado en el tratamiento dinámico de objetos geométricos, sustenta la idea de conectar representaciones geométricas, algebraicas y numéricas interactivamente. Permite realizar construcciones tanto con puntos, vectores, segmentos, rectas, secciones cónicas como con funciones que, a posteriori, pueden modificarse dinámicamente. Por otra parte, se pueden ingresar ecuaciones y coordenadas directamente. Así, GeoGebra tiene la potencia de manejarse con variables vinculadas a números, vectores y puntos; permite hallar derivadas e integrales de funciones y ofrece un repertorio de comandos propios del análisis matemático, para identificar puntos singulares de una función, como Raíces o Extremos. Así se pueden graficar funciones con facilidad, operar con deslizadores para investigar su comportamiento paramétrico, encontrar derivaciones así como hallar derivadas y usar comandos de la potencia de Raíz o Secuencia. GeoGebra se distribuye con una licencia GPL y tiene una amplia gama de premios, obtenidos desde el año 2002 hasta la actualidad. Se puede tanto descargar como usar online, a partir de la siguiente dirección web: http://www.geogebra.org/cms/. Está disponible en múltiples idiomas y ofrece varias capturas de pantalla para analizar las posibilidades de esta aplicación, cada vez de un uso más extendido. Se sigue trabajando continuamente para mejorar GeoGebra, lo que hace que la aplicación tenga una continuidad garantizada, especialmente útil para asegurarse un uso durante varios años académicos de la misma. 4. Conclusiones Se ha comentado el impacto de las nuevas tecnologías en el mundo educativo como introducción al presente artículo. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Posteriormente se han analizado los distintos tipos de software que se puede escoger para cualquier actividad tecnológica que se proponga en las aulas o como ejercicios didácticos en el alumnado, incidiendo especialmente en el mundo de las licencias, los costos y las posibilidades que se dan entre la elección de un tipo de programas y otros. Finalmente, se ha expuesto la existencia de una página de una utilidad notable, llamada GeoGebra, con multitud de posibles aplicaciones prácticas para las clases en la Educación Secundaria Obligatoria para la especialidad de Matemáticas. INTRODUCCIÓN AL PROCESAMIENTO DIGITAL DE SEÑALES AUTOR: JORDI PASCUAL GRANADO Resumen: En el presente artículo se abordan los fundamentos básicos de la teoría del procesamiento digital de señales, partiendo de una breve reseña histórica de la evolución de estos sistemas desde su aparición hasta los sistemas actuales, cuyos fundamentos matemáticos son lo mismos pero con una potencia de cálculo mucho mayor en los actuales DSP (Procesadores Digitales de Señales). 1. Introducción: El procesamiento digital de señales es un área de la ciencia y la ingeniería que se ha desarrollado muy rápidamente durante los últimos 30 años y cuya aplicación se ha extendido ampliamente en campos muy diversos como la medicina, el ocio o las comunicaciones. Esto es consecuencia de los importantes avances logrados en la tecnología de computadores y la fabricación de circuitos integrados, que han propiciado la aparición de procesadores de propósito específico como los microcontroladores y los DSP (Digital Signal Processor). Gracias a este espectacular desarrollo de los procesadores digitales, hoy en día es posible aplicar toda la teoría de procesamiento digital de señales que se viene desarrollando desde los años 50 pero cuya aplicación fue inviable hasta principios de los 70, al menos con un coste competitivo respecto a los sistemas analógicos. 2. Evolución histórica del Procesamiento Digital de Señales: La primera vez que se pensó en usar una computadora como parte de un sistema de procesamiento de señales en tiempo real fue en 1950, cuando Brown y Campbell presentaron un esquema que usaba una computadora digital tanto en el lazo directo como el lazo de realimentación de un sistema de control. En esta primera propuesta se asumía el uso de elementos de computación analógicos además de la computadora digital, ya que la velocidad de procesamiento de los ordenadores era muy limitada, y debido a esto pasaron varios años hasta que se aplicara realmente un sistema en que el procesamiento de señales fuera completamente digital. Las primeras computadoras digitales desarrolladas específicamente para control en tiempo real fueron destinadas a operaciones del ejército del aire. En 1954 fue usada por primera vez con éxito una computadora digital para el sistema de control de vuelo automático de un avión. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Hasta 1959 no se aplicó el primer sistema de control por computador en la industria, aunque se habían usado antes como sistema de monitorización, pero no controlaban realmente los procesos. Este fue el primero que sí lo hacía y fue instalado en una refinería de la Texaco en Texas, haciendo uso de una memoria de tambor. A partir de este momento se siguieron implantando sistemas de control por computador en varias instalaciones industriales, pero todos ellos tenían una característica en común: el tipo de control realizado era control supervisor, es decir, el computador sólo daba consignas de funcionamiento a controladores analógicos que controlaban los actuadores del proceso. Por lo tanto el ordenador no controlaba directamente los procesos sino indirectamente a través de las consignas enviadas a los controladores analógicos. El primer sistema de procesamiento en tiempo real de control digital directo (DDC) fue implantado en Noviembre de 1962 en una planta industrial de amoniaco-sódico en el Reino Unido. Este sistema requería de una gran velocidad de procesamiento ya que controlaba directamente los actuadores a diferencia de los sistemas implantados hasta esa fecha. No obstante, a pesar de que se llevara a cabo este sistema con éxito, la baja velocidad de procesamiento y escasa capacidad de almacenamiento de las computadoras existentes hasta principios de los años setenta, mas el elevado coste de las mismas, impidió que el uso de los sistemas de control y procesamiento por computador se extendiera de forma masiva a nivel industrial. A partir de la década de los setenta, con el desarrollo de la integración de circuitos, la aparición de los microprocesadores y la importante reducción de costes, comenzó a hacerse viable la implantación de sistemas de procesamiento y control digital en aplicaciones industriales y de comunicaciones. Esto propició la especialización de los microprocesadores para propósitos específicos, apareciendo los microcontroladores y procesadores digitales de señales (DSP), que han seguido evolucionando de manera exponencial hasta la actualidad. Esto no sólo ha permitido el uso de sistemas de procesamiento digital de señales en la industria, sino que se ha extendido durante los últimos años a otros campos como el ocio, las comunicaciones, la medicina, etc. En la actualidad los sistemas de procesamiento digital de señales han sustituido por completo a los sistemas analógicos, gracias a la implantación de los DSP (Procesadores Digitales de Señales), que con un coste muy reducido pueden procesar señales de audio, video, comunicaciones, etc. con una calidad muy superior a la de los sistemas analógicos debido a que permiten realizar cálculos muy complejos en tiempo real, pudiendo aplicar técnicas como: filtros adaptativos, cancelación de eco, redes neuronales, etc. Que serían imposibles de desarrollar mediante sistemas analógicos. Hoy en día encontramos Procesadores Digitales de Señales en: Televisión Digital Terrestre, Música (CD, MP3, radio digital), teléfonos móviles, tarjetas de sonido y de video de ordenadores, todo tipo de sistemas de regulación en automoción (velocidad, trayectoria, distancia de seguridad), sistemas de control digital en entornos industriales (control neuronal, control borroso, control vectorial de motores) y un largo etc. 3. Definición: Según el Oxford Dictionary of Computing: “un sistema de tiempo real es cualquier sistema en el que el tiempo en el que se produce su respuesta es significativo. Esto es debido a que la entrada C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 corresponde a algún cambio en el mundo físico, y la salida está relacionada con ese cambio. El intervalo desde el tiempo de entrada al tiempo de salida debe ser suficientemente pequeño para una puntualidad aceptable”. Si el sistema de procesamiento es digital, podemos tomar esta definición de sistema de tiempo real como válida, pero para ello el sistema deberá cumplir la condición de que el periodo de muestreo sea inferior al intervalo de tiempo considerado como puntualidad aceptable. Realmente esta condición no es un añadido sino que se desprende de la propia definición. 4. Elementos que componen un sistema de procesamiento digital de señales: Un sistema de procesamiento digital de señales está compuesto básicamente por los distintos bloques que se observan en la siguiente figura: El primer bloque que nos encontramos es un filtro de entrada cuya función es acondicionar la señal para el siguiente bloque que es el conversor Analógico/Digital. Esto es necesario debido a que las señales analógicas generalmente no están limitadas en banda, es decir, su rango de frecuencias no está limitado sino que abarca todo el espectro, y según el teorema del muestreo, es necesario que las señales continuas que se vayan a muestrear con una frecuencia fs estén limitadas en banda a una frecuencia máxima de fs/2 para que no se produzca el efecto llamado aliasing (solapamiento) que puede llegar a distorsionar completamente la señal. Por lo tanto, es necesario introducir un filtro paso bajo que tenga frecuencia de corte en fs/2, para eliminar las componentes de frecuencias por encima de ésta. El efecto del filtro sobre el espectro de frecuencias de la señal se ve en la siguiente figura: El segundo bloque es el conversor A/D, que convierte la señal analógica de entrada en digital y está compuesto por dos bloques: un muestreador, que toma muestras de la señal en valores de tiempo discretos y múltiplos del periodo de muestreo Ts, y una etapa de digitalización, que obtiene un valor numérico a partir del valor analógico discretizado con un número de bits n. Son de vital importancia la elección de la frecuencia de muestreo fs y el tamaño de palabra del conversor A/D, que influirá en la precisión de las muestras tomadas. Así por ejemplo, con un tamaño de palabra de 8 bits tenemos 28 = 256 niveles para cuantificar el valor analógico, mientras que con un tamaño de palabra de 16 bits tenemos una precisión de 216 = 65536 niveles. El efecto de la frecuencia de muestreo es muy importante, ya que el filtro de entrada introduce una frecuencia de corte en fs/2 y por lo tanto mientras mayor sea fs mejor aproximada estará la señal de entrada. El efecto del muestreo en el espectro de la señal es la repetición del mismo periódicamente a una distancia fs, como se observa en la figura. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 El siguiente bloque es el buffer de entrada o imagen de los datos de entrada, en el que se guarda memoria de las muestras anteriores de la señal de entrada para poder realizar cálculos con series de datos en lugar de usar valores de muestras aisladas. Tras el bloque de imagen de entrada tenemos el bloque de procesamiento digital de la señal, en el que se realizan todos los cálculos numéricos con las muestras de la señal, y será realizado por un procesador digital, ya sea un ordenador de propósito general, un microcontrolador o un DSP. La salida de datos es simétrica con la entrada, es decir, nos encontramos con un buffer de datos de salida en el que se irán guardando las muestras resultantes del procesamiento realizado por el procesador. Después estas muestras serán reproducidas con una frecuencia de muestreo fs por medio del conversor Digital a Analógico (D/A) y filtradas por el filtro de salida para eliminar las bandas de frecuencia centradas en múltiplos de fs. Esto es lo que se llama muestreo y reconstrucción, y lo que hace es convertir una serie de datos discreta en una señal continua. 5. Fundamentos de teoría de señales y sistemas discretos (Señales digitales) Definimos señal como la variación de una magnitud física con el tiempo, espacio o alguna otra variable independiente. Por ejemplo s(t) = 2*Sen(wt) es una señal que depende de la variable independiente t. Podemos distinguir entre cuatro tipos de señales en función del carácter de la variable de tiempo y de los valores que ésta toma: 1. Señales de tiempo continuo: son señales que están definidas para todo valor de tiempo t y además el tiempo se evalúa en un intervalo continuo que puede variar desde -∞ a ∞. Es decir, son funciones de una variable continua. 2. Señales de tiempo discreto: son señales que sólo están definidas en valores discretos de tiempo. Estos valores no tienen porque estar equidistantes, pero en la práctica se suelen tomar con un periodo constante llamado periodo de muestreo. 3. Señales de valores continuos: señales de tiempo continuo o de tiempo discreto que toma valores continuos de la magnitud que representa, es decir, en los instantes de tiempo en que se evalúa puede tomar cualquier valor dentro de un intervalo continuo. 4. Señales de valores discretos: señales de tiempo continuo o de tiempo discreto que toman valores discretos de la magnitud que representan. A menudo se suele confundir las señales digitales con las señales de tiempo discreto, pero hay que hacer una distinción entre ellas: las señales de tiempo discreto provienen de señales continuas muestreadas, mientras que las señales digitales son señales de tiempo discreto que además han sido cuantificadas, es decir, que son además de valores discretos. En las siguientes figuras se observa claramente la diferencia entre una señal discreta y una señal digital (muestreada y cuantificada): C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 En esta figura se observa una señal continua que se va a muestrear, obteniendo la señal que se presenta en la siguiente figura: La señal discreta (muestreada) tiene valores continuos en instantes de tiempo discretos, pero para digitalizar la señal es necesario cuantificarla, tal como se muestra en la siguiente figura. Por tanto, el proceso de conversión de una señal analógica a una señal digital se divide en dos bloques como se muestra en la figura siguiente: El objeto de este artículo son las señales digitales, sin embargo conviene tener presente que éstas provienen del muestreo y cuantificación de señales continuas, y por lo tanto representarán con mayor o menor precisión a éstas en función de los siguientes parámetros: 1. Frecuencia de muestreo: frecuencia con la que se toman valores de la señal continua. El resultado del muestreo de la señal es un tren de pulsos de distinta amplitud. 2. Rango del conversor A/D: intervalo entre los valores máximo y mínimo que el conversor A/D puede convertir de valor analógico a digital. 3. Nivel de cuantificación Q: se define como el rango entre dos puntos de codificación adyacentes y depende del número de bits que usemos para la digitalización. Por ejemplo, para un conversor cuyo rango de variación de voltaje sea 0-10 V y use 8 bits para la conversión tendrá una resolución de 10/28 = 0.039V. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Por tanto, mientras mayor sea la frecuencia de muestreo y mayor el número niveles de cuantificación, más fielmente representará la señal digital a la señal continua. 6. Sistemas discretos Ya hemos definido lo que es una señal digital, pero el interés de trabajar con ellas es el de poder procesar señales numéricamente, y esto es lo que hacen los sistemas de control discretos. Un sistema de control discreto recibe una secuencia de valores numéricos, los procesa mediante un algoritmo matemático y produce una salida digital que será otra secuencia de valores numéricos. De esta manera, si los sistemas continuos se representan matemáticamente por una ecuación diferencial, los sistemas discretos se representan matemáticamente por una ecuación en diferencias, que expresada de un modo genérico es: y(k) = H[ y(k-1), ..., y(k-n), x(k), ..., x(k-m) ] Con un conjunto de condiciones iniciales y(0), ..., y(n-1) que definen unívocamente la solución y(k). Una ecuación en diferencias dada de esta forma se dice que representa a un sistema recursivo, ya que los valores futuros de la salida dependen de los valores pasados de la misma, en cambio, se dice que un sistema es no recursivo si los valores futuros de la salida sólo dependen de los valores pasados de la entrada pero no de la salida, es decir, la expresión matemática que los representa es de la siguiente forma: y(k) = H[ x(k), x(k-1), ..., x(k-n) ] Cuando el sistema es lineal, es decir, cumple el principio de superposición, la ecuación en diferencias que lo representa queda de la siguiente manera: (recursivo) a0.y(k) + ... + an-1.y(k-n+1) + an.y(k-n) = b0.x(k) + ... + bm.x(k-m) (no recursivo) y(k) = b0u(k) + b1u(k-1) + ... + bnu(k-n) donde los valores de los coeficientes ai y bi pueden ser variables con el tiempo. Si son constantes para todo k, se dice que el sistema es Lineal e Invariante en el Tiempo (LTI). Nos vamos a centrar en el estudio de sistemas discretos lineales, ya que existen numerosas técnicas numéricas para el análisis y diseño de sistemas lineales, y además gran cantidad de sistemas prácticos son lineales o se pueden linealizar. 7. Respuesta de sistemas Lineales Invariantes en el Tiempo (LTI) Hemos visto que los sistemas discretos lineales se caracterizan por una ecuación en diferencias, pero otra forma de caracterizarlos es mediante la respuesta ante una entrada impulso unitario δ(k), ya que una cualquier señal discreta se puede descomponer en una suma de impulsos unitarios multiplicados por constantes, y esto nos permite calcular la respuesta de un sistema LTI a cualquier señal aplicando el principio de superposición si conocemos la respuesta ante un impulso δ(k). Esto se puede observar en la figura siguiente: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Se puede observar que la señal discreta representada en la figura está compuesta por una serie de impulsos unitarios δ(n-k) multiplicados por distintas amplitudes, por lo que se puede expresar como: n x(n) = ∑ x(k ).δ (n − k ) k =0 y por lo tanto se puede calcular la salida de un sistema LTI frente a esta señal si se conoce la repuesta a un impulso unitario δ(n) aplicando el principio de superposición. De esta manera, si la respuesta a impulso de un sistema lineal es una secuencia finita de valores h0, h1, ..., hm, se tiene que para una señal x(n) la salida será: m y (n) = ∑ hk .x(n − k ) para n = 1, 2, 3, ... k =0 Esto es lo que se llama suma de convolución, debido a que es la convolución de la respuesta a impulso h(n) sobre la señal de entrada x(n). Observamos que por este método calculamos la respuesta del sistema a una señal arbitraria realizando m multiplicaciones y m sumas para cada muestra, de manera que si tomamos m muestras realizaremos m2 multiplicaciones y m2 sumas. Hemos visto que un sistema lineal invariante en el tiempo queda caracterizado por su respuesta a impulso h(n), pero es conveniente hacer una subdivisión de éstos en dos tipos: 1. Sistemas FIR (Finite Impulse Response): son aquellos cuya respuesta ante un impulso unitario tiene una duración finita. La salida se puede calcular usando la suma de convolución ya que el número de operaciones es finito: m y (n) = ∑ hk .x(n − k ) k =0 2. Sistemas IIR (Infinite Impulse Response): son aquellos cuya respuesta ante un impulso unitario tiene una duración infinita. Para este tipo de sistemas la respuesta ante una señal arbitraria es una suma infinita, ∞ y (n) = ∑ hk .x(n − k ) k =0 y por lo tanto la respuesta del sistema se debe calcular por otro método, como por ejemplo resolviendo la ecuación en diferencias que lo representa, que generalmente viene dada de forma recursiva para sistemas IIR: a0 y (k ) + ... + an −1 y (k − n + 1) + an y (k − n) = b0 x(k ) + ... + bm x(k − m) En muchos casos prácticos, la respuesta de un sistema IIR estable (si es estable cumple que la respuesta ante un impulso unitario tiende a cero cuando t tiende a infinito) se puede aproximar por una respuesta FIR. Esto es interesante para el diseño de filtros digitales adaptativos, ya que su diseño es bastante más sencillo para filtros FIR que para filtros IIR. Por otro lado, los sistemas FIR son inherentemente estables, ya que producen la salida a partir de la suma de un número finito de términos, mientras que los sistemas IIR producen la salida a partir de la suma de una serie infinita de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 términos, y por lo tanto pueden divergir volviéndose inestables. Esta es la razón por la que normalmente se prefiere usar filtros digitales de tipo FIR en lugar de usar filtros IIR, y más aún cuando se trata de filtros adaptativos que cambiarán a lo largo del tiempo y no se puede asegurar que no se vuelvan inestables en algún momento. Bibliografía: [1] [2] [3] [4] [5] [6] [7] John G. Proakis and Dimitris G. Manolakis. Introduction to Digital Signal Processing. Macmillan Publishing Company, 1989. Paul A. Lynn and Wolfgang Fuerst. Introductory Digital Signal Processing with Computer Aplications. Ed. Wiley & Sons. 1989. Oppenheim, A. V. and Willsky, A. S. Signals and Systems. Prentice Hall, 1983. Ken C. Pohlmann. Principles of Digital Audio. Howard W. Sans & Company, 1995. Digital Signal Processing Committee. Selected Papers in Digital Signal Processing. IEEE Press. 1976. Jorge Luis Martínez Rodríguez. Control de Procesos Industriales. Universidad de Málaga, Octubre de 1997. Javier Fernández de Cañete, M. J. López Baldán, I. Garcia Moral. Control Automático de Sistemas en tiempo discreto. Universidad de Málaga, Diciembre de 1997. “LA IMPORTANCIA DE LA MOTIVACIÓN Y LA RELAJACIÓN EN EL AULA” AUTOR: MANUEL ALEJANDRO MARTÍN MORENO Resumen Se presenta en el siguiente artículo una batería de actividades y juegos adecuadamente seleccionados como técnicas de motivación y/o relajación que se pueden incluir para todas las áreas del currículo. 1. INTRODUCCIÓN Las actividades de motivación en clase favorecen la percepción de autonomía por par te del alumnado y facilita la percepción de la tarea elegida como más interesante. Además, si estas actividades se plantean de forma grupal, es decir, en la que se trabaje en cooperación con los compañeros/as, harán que desarrollen el patrón de motivación por apr endizaje frente al de lucimiento, resultando terapéutico para aquellos alumnos/as que han desar rollado miedo al fracaso. Planteo una serie de objetivos para conseguir con estas actividades: _ Captar la atención y la cur iosidad por el contenido. _ Mostrar la relevancia de los contenidos más significativos de la actividad de aprendizaje. _ Conseguir mantener el mayor nivel de interés por el contenido de la actividad y evitar el abandono del esfuerzo preciso. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Por orto lado las actividades de relajación, como síntesis en las sesiones sobretodo de las áreas de educación física y de música, ayudan a la relajación muscular que sirve como medio para obtener una relajación psicológica. La vuelta a la calma (actividad de síntesis) se presenta como el momento de la sesión más apropiado para desarrollar las prácticas de relajación, y su reiteración ayudará a fomentar hábitos que puedan transferirse a su vida ordinaria. La práctica de la r elajación aporta a nuestro organismo: - Disminución de la ansiedad. - Aumento de la capacidad de enfrentar situaciones estresantes. -Estabilización de las funciones cardiaca y respiratoria. - Aumento de la velocidad de reflejos. - Aumento de la capacidad de concentración y de la memoria. - Aumento de la eficiencia en la capacidad de aprendizaje. - Incremento de la habilidad para relajarse cada vez que lo necesite esté donde esté. - Sintonización armónica de la mente y el cuerpo. - Aumento de la capacidad de reflexión. - Aumento de la tendencia natural de conocerse a sí mis mo. - Aumento de la disposición del organismo a curarse a sí mismo. - Incremento de la capacidad creativa. - Mejor disposición para tratar a gente "tóxica" (Personas que nos invitan a sentirnos mal). - Aumento considerable de la capacidad de visualización interna dirigida. - Aumento de la facilidad de pensar en positivo. - Tendencia creciente al mejoramiento de la autoimagen positiva. - Aumento de la confianza en sí mismo. - Disminución de la tensión arterial. - Mejora en la circulación sanguínea. - Normalización de la respiración. - Sensación de eliminación de tensiones. - Aumento de la recuperación física y mental. - Aumento de la oxigenación cerebral. - Ensanchamiento del campo de conciencia. - Mejora en la calidad del sueño. - Mayor facilidad para recordar los sueños acontecidos mientras se duerme. 2. ACTIVIDADES DE MOTIVACIÓN. Muévete animal. Desplazarse por el espacio imitando animales. “Hoy me he encont rado...” Los niños están sentados en círculo mirando hacia el interior . Uno de ellos dice: "Hoy me he encontrado un león" y se mueve como si él fuera un león. El jugador de su lado repite el animal que ha encontrado su compañer o y añade uno nuevo. "Hoy me he encontrado un león y una serpiente" (Realiza los movimientos correspondientes). Así sucesivamente. Cada niño tiene que repetir las palabras desde el principio en el orden correcto y añadir una más. Una variante: Realizar sólo los movimientos corporales sin nombrar el animal. El objetivo que se persigue, es memorizar palabras e interpretarlas corporalmente. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 “Ciempiés”. Los niños se colocan en fila, uno detrás de otro, con la mano derecha encima del hombro del jugador que tienen delante. El primer jugador de la fila representa la cabeza del ciempiés y debe inventar un movimiento corporal. Los demás niños deben repetirlo, siguiendo el tempo del pandero, hasta que éste quede en silencio. (El maestro/a dirige la marcha con un pandero). Cuando acaba la música, el primer jugador se dirige a la cola del ciempiés para que el nuevo jugador de cabeza invente otro movimiento, que los demás tendrán que copiar. Juegos de rol. Los personajes de los juegos de rol pueden cambiar en función de los temas que hayamos tratado últimamente en el aula: Liebres y conejos. Lobos y cerditos. Soles y lunas. Tiburones y peces. Previamente nos ponemos de acuerdo sobre los espacios (donde está la casa de la liebre, situamos la madriguera donde los conejos están protegidos,...). La mecánica del juego es siempre bastante parecida aunque con variaciones. Un ejemplo de cómo introducir el juego: ''Los grandes osos (dos o más niños que llevan una capa o algún otro distintivo) están durmiendo. Poco a poco se van despertando y se dan cuenta que tienen mucha hambre. Van a buscar peces para comer ( el resto de los niños/as) ‘‘. En definitiva se trata del juego de siempre de perseguir, atrapar , hacer prisioneros y llevárselos a casa, ir a salvar,... A menudo los niños/as incorporan en el juego movimientos y sonidos de los animales que representan. El carnaval de los animales. Escuchando la obra de Camille Saint-Saëns, “El carnaval de los animales”, los niños tendrán que moverse al ritmo y en aquellas partes que así lo r equieran, imitarán con gestos los instrumentos musicales que interpretan dicha parte de la obra, o imitarán al animal que corresponda en cada caso. Paseo en autobús. Esta actividad en un principio va dirigida al alumnado del primer ciclo de educación primaria, debido a su sencillez. Con esta actividad se pretende: _ Acercar al niño/a a los medios de transporte. _ Conocer las nociones básicas de educación vial. _ Respetar el silencio como elemento integrante en la música. _ Representar con movimientos, diferentes ritmos. _ Diferenciar los distintos aires y movimientos en la música. Se colocan las sillas en filas, los niños/as serán los pasajer os que vayan subidos en el bus. Un niño/a hará de conductor que será el primero de dicha fila, este tocará el silbato para avisar que el bus se pone en marcha. Arranca. Las sacudidas se notan en los cuerpos de los viajer os/as, que se tambalean hacia delante, hacia atrás, según acelere o disminuya la velocidad. (Esta marcha la ira C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 marcando con un pandero, dando golpes más lentos o más rápidos). Se inclinarán hacia un lado o hacia otro en las curvas, cuesta arriba ira más lento y cuesta bajo más rápido. Después el maestro/a le ira mostrando al conductor/a una serie de señales de tráfico que debe respetar el autobús, haciendo paradas obligatorias, como por ejemplo: un paso de cebr a, un semáforo en rojo, dirección prohibida, Calle cortada por obras, paradas oficiales para que suban y bajen viajeros/as, etc. Formas Geométricas. Con esta actividad pretendemos que reconozcan las for mas geométricas básicas a través de la expresión cor poral. (Especialmente para primer ciclo). Por otro lado, en el área de música se reforzar á este reconocimiento con los instrumentos musicales escolar es de percusión. Ejemplo: Rectángulo: caja china, Triángulo: triángulo, Círculo: pandero, etc. Distribuidos por todo el espacio, experimentamos las posibilidades motr ices, haciendo las figur as geométricas básicas con las manos, con los br azos, con los pies, piernas, con dos par tes a la vez, con todo el cuerpo, más grandes o más pequeñas, etc. Después haremos imitaciones y representaciones, por ejemplo los gestos cir cular es de brazos y manos pueden tener una significación o imitación: Conducir un coche, dar vueltas a una manivela, batir alimentos, imitar las aspas de un molino de viento, un ventilador, etc. Otra manera de trabajar, sería haciendo diseños (dibujar la figuras en el espacio) y desplazamientos con las manos, pies, etc. El juego de la estatua. Los niños/as se distribuirán por todo el espacio, bailarán al ritmo de la música que escuchen, y cuando ésta cese, quedarán como estatuas, el que se mueva quedará eliminado del juego. (Esta actividad también se puede hacer como actividad de síntesis en una sesión). Acciones. Se forman dos grupos, a cada componente del grupo se le asigna (maestro/a) un verbo, y tienen que representarlo corporalmente. Los componentes del otro grupo deberán acer tarlo. Luego se intercambian los papeles. Números. Se selecciona un grupo de siete niños/as, a los cuales se les entregará un instrumento de percusión de madera (Claves, caja china, etc). El resto de la clase se coloca alrededor de ellos/as. El maestro/a asigna a un niño/a para que comience, éste Da un golpe con el instrumento musical en cuestión. El niño/a de su derecha tiene que dar un golpe más uno, el de su lado dos golpes más otr o, y así sucesivamente. El niño/a que da tres golpes debe remarcarlos y decir que ha llegado a un múltiplo de tres. (¡tres!). Si en algún momento alguno se equivoca y por tanto se rompe la secuencia, se vuelve a empezar . La pelota caliente. Los alumnos/as colocados en corro se van pasando una pelota al ritmo de la música y procurando que no caiga al suelo, ya que si esto ocurre será eliminado del juego. Por otro lado se eliminará del juego a aquel niño o aquella niña que tenga la pelota en la mano cuando la música deje de sonar. Caminamos por el espacio. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Andamos, por todo el espacio de la sala, sin tocar a nadie; primero despacio y después, a una señal, más deprisa. Con esta actividad, se trabaja el aire o movimiento (música). Esta actividad se puede ampliar o modificar, según los contenidos que se vayan a trabajar en esa sesión. Por ejemplo, si queremos tr abajar diversos ritmos, damos la consigna de que caminen al ritmo que se va marcando con el instrumento musical de percusión que se elija: pander a, caja china, triángulo, etc. de esta manera también iremos introduciendo el instrumento musical que vayamos a enseñar en esa sesión. (Los instrumentos musicales escolares se van presentando en el primer ciclo de Educación Primaria). Carreras del mundo al revés. Realizar carreras en las que ganará el último en llegar a la meta. También puede hacerse una variación del juego y realizar carreras de este tipo, pero con obstáculos o en circuito. Iconografías colectivas. Numerar a los participantes. Se elegirá un lugar específico donde realizar la actividad. El/la alumno/a número 1 saldrá a escena y hará una postura, que deberá mantener todo el rato. El número 2, saldrá a escena e intentará compensar la posición del compañero para que intente tener sentido. Así sucesivamente, hasta que hayan salido todos los/as alumnos/as. También puede incluirse composiciones con pelotas o aros. Una vez hecha la composición, el profesor gritará "Movimiento", y todos deberán empezar a correr por la sala, hasta que el profesor grite "Foto", momento en el cual, los alumnos deberán volver a la posición inicial que habían creado. ¿Quién es? En gran gr upo y sentados en círculo, con la cabeza agachada, tendrán que adivinar el sonido y la fuente sonora que producirá alguno/a de sus compañer os/as. El maestro/a indicará al que produzca el sonido con una palmada en la espalda. Los sonidos pueden ser diversos: _ Un grito. _ Tararear o cantar una canción. _ Murmullo, etc. Esta actividad puede tener diferentes variantes, se puede realizar de pie con los ojos vendados, excepto el que emite el sonido que irá a cara descubierta y todos deben caminar hacia la fuente sonora. Por otro lado, esta actividad se puede realizar con instrumentos musicales, para discriminar su timbre. Cuento musicado. Se trata de que la maestra o maestro va narrando un cuento y los niños/as deben realizar sonidos acordes con él, con diversos materiales que haya en el aula, incluso utilizar onomatopeyas cuando la situación lo requier a. Ejemplo: Para simular el río, haremos glisandos con el carillón, o cuando haya una tormenta usar el bombo y el plato, etc. Dentro o fuera. Se reparten aros de colores por el suelo del aula, uno para cada cuatro apr oximadamente. Los niños/as deben ir caminando al ritmo de la música y por fuera de los ar os, y cuando la música cese C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 todos deben estar dentro de un aro. De esta maner a aquellos/as niños/as que están fuera, quedarán eliminados del juego. Jugamos con el soplo. Esta actividad, está enfocada principalmente para el área de música. Sirve como actividad inicial y de motivación a las sesiones dirigidas al uso de la flauta. Se trata de practicar una batería de soplos, atendiendo a una serie de consignas: _ Soplar nor mal como si se fuera a apagar una vela. _ Soplar fuerte como si quisieras apagar de una vez las velas de tu cumpleaños. _ Soplar como si apagaras las velas de tu tarta de cumpleaños, pero una a una. Sin respirar. Se realizarán tantos soplos como años se tenga. (2º ciclo). _ Ahora el mismo procedimiento que el anterior pero cortando el flujo de aire sacando la punta de la lengua. _ Haz una pedorreta haciendo vibrar los labios fuerte. _ Intenta soplar vibrando la lengua como si se pronunciara la letr a R:rr rrr rrr rrr r, pero sin producir sonido. _ Soplar aire frío, todo lo que se pueda. (Sonidos agudos) . _ Sopla aire caliente. (Sonidos graves). _ Sonr íe y sopla a la vez hacia abajo. _ Ahor a sopla hacia tu nariz. _ Sóplate un ojo y luego el otro. _ Sóplate una oreja, luego la otra. 4. ACVTIVIDADES DE RELAJACIÓN ¿Quién anda ahí?”. Los niños se colocan libremente por parejas uno delante del otro. El niño de detr ás presiona con las manos la espalda de su compañero, simulando las huellas que dejarían los animales al desplazarse por ella. Por ejemplo, el elefante se realiza con los puños cerrados; la hormiga con la yema de los dedos; la rana con movimientos discontinuos, como si saltara; la serpiente con un movimiento continuo, etcétera. El niño de delante debe adivinar qué animal se ha paseado por su espalda. Luego inter cambian papeles. Pretendemos sensibilizar las diferentes zonas de la espalda y responder a una reacción táctil. Música: Sinfonía Pastoral de Beethoven. Masajes. Se pueden realizar varias actividades de relajación usando los masajes, una de ellas es la que anteriormente hemos citado. Pero otras que se pueden hacer serían: _ Usar pelotas de masaje. (Presionar la pelota en la espalda del compañer o/a). _ Usar las propias manos. (Especificando el movimiento de éstas). Expresión artística. Con pintura de dedos y en papel continuo, tiene que expr esar los sentimientos que le produce la música. También se pueden pintar la línea melódica de la música. Burbuja de aire. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Todos los niños/as se colocan en el centro de la clase de pie, separados unos de otros/as. Nos imaginamos que estamos dentro de una burbuja grande, en la que podemos mover los brazos arriba, a los lados, abajo, haciendo círculos como si fueran las aspas de un molino, todo el cuerpo se mueve hasta donde pueda llegar, da vueltas, per o sin salir del sitio. Estaremos a tal distancia de los demás que no los podremos tocar, ni ellos a nosotros/as. Ese es nuestro espacio propio, nos pertenece sólo a nosotros/as. Imaginamos que esa burbuja sube por el aire y estamos dentro de ella. Ahora no pesamos, somos ligeros/as como una pluma. Nuestr o cuerpo, los brazos son muy grandes y se mueven de muchas for mas. Pero la burbuja poco a poco se va haciendo más pesada, por eso bajamos de nuevo al suelo, y más pequeña, se va cerrando, e impide hacer movimientos, se va haciendo más pequeño hasta que sea como una pelota, ya no podemos movernos. Pero de pronto, la burbuja explota y tú das un salto, abriendo los brazos, y ya estamos libres del todo par a hacer los movimientos que se quieran por todo el espacio. Usaremos una música relajante. La energía. Imagínate que dentro de tu cuerpo, en el abdomen, tienes una fuente que produce una energía, una fuerza muy grande, y tiene que salir de tu cuer po hacia todo el espacio como si fueran r ayos. Por eso, por tus pies, por tus manos, por tus dedos salen a toda velocidad y muy fuertes los rayos de energía que llegarán muy lejos, atravesando las paredes, el techo, el suelo. Tienes que dirigir esa gran corriente que empuja desde dentro del cuerpo hasta todos los puntos del espacio que está a tu alrededor. Círculos y rectas en el aire. Con tus manos dibuja en el aire, y después en el suelo, objetos redondos: aros, panderos, pelotas, globos, platos, ruedas, el sol, la letra O, el número cero, un disco... De rodillas en el suelo. Con tus manos dibuja en el aire, y después en el suelo, objetos rectos: palos, bastones, lápices, cepillo de barrer, fregona, cohete, árboles... Usaremos como material: papel continuo, pinturas de dedos y rotulador es de punta gruesa. Estatuas. Nos colocamos en distintos lugares del espacio y de distintas formas (de pie, de rodillas, sentado, agachado, etc.), y hacemos con el cuerpo distintas estatuas. Después las harán por grupos., y los demás tendrán que adivinar a la estatua que representan. Estamos en una botella. Escuchando una música tranquila, se pide a los/as niños/as que se posicionen sentados/as o, preferiblemente estirados/as, mediante la música, y a través de las indicaciones del profesor, muy poco a poco han de imaginar que se hacen pequeños y se introducen en una botella. Luego imaginan que intentan salir, pero que no se pueden estirar. Seguidamente, logran romper la botella, se estiran completamente, y permanecen un rato descansando. Cada uno cogerá un folio y en el lugar que prefiera de la sala, realizará un dibujo relacionado con la experiencia de la botella. Todos sentados en círculo. Cada uno/a debe explicar el dibujo que ha hecho al resto de compañeros/as. Seguidamente, se debe explicar cómo se siente cada uno, cómo se lo ha pasado, qué es lo que más le ha gustado y lo que menos, etc. Tensión y relajación. Relajación por contrastes, a la orden, primero global: ¡De hierro! ¡De trapo! ¡De piedra! ¡De plumas! C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Relajación por contrastes, a la orden segmentaria: brazos, piernas, nalgas, cabeza (levantar sólo un poco y dejar caer) . Pasar de un estado de tensión a uno de relajación pero esta vez muy r ápido. En parejas, uno controla al otro, para comprobar si de verdad es de hierro, de tr apo... Otras variantes: "Transporte del congelado". Grupo dividido en equipos. Relevos. Transportar al congelado (rígido) sin que se rompa de un lado al otro del espacio. Luego hacer lo mismo pero como si estuviera derretido. Comparar las diferencias. Preguntarles cómo pesa más. "Dale la vuelta a la estatua". Grupo dividido en par ejas. Uno se pone en el suelo de tal manera que el otro no le pueda dar la vuelta. Primero oponer toda la resistencia posible. Luego dejarse. Compar ar las diferencias. "Urgencias". Gran grupo dividido en equipos. Se trata de trasladar lo más rápidamente posible a los "heridos" de un sitio a otro de la sala. Globos Se deja el globo en el suelo y se sopla sobre él para que se mueva. Después se puede organizar un concurso, para ver quién lleva el globo más lejos soplando. Inventar con un compañero/ diferentes formas de intercambiarse el globo. Luego se puede intentar con dos globos a la vez. BIBLIOGRAFÍA Trias, N. (2002). Juegos de música y expresión corporal. Madrid: Parramón. De las Heras, R. (1993).Actimúsicas 9. Madrid. Ediciones ARA. Rey Gómez, J.M., Hidalgo Diez, E. y Espinosa Manso, C. (1989).La motivación en la escuela. Málaga: Ágor a. www.efdeportes.com “LA IMPORTANCIA DE LA MOTIVACIÓN Y LA RELAJACIÓN EN EL AULA” AUTOR: MANUEL ALEJANDRO MARTÍN MORENO Resumen Se presenta en el siguiente artículo una batería de actividades y juegos adecuadamente seleccionados como técnicas de motivación y/o relajación que se pueden incluir para todas las áreas del currículo. 1. INTRODUCCIÓN Las actividades de motivación en clase favorecen la percepción de autonomía por par te del alumnado y facilita la percepción de la tarea elegida como más interesante. Además, si estas actividades se plantean de forma grupal, es decir, en la que se trabaje en cooperación con los C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 compañeros/as, harán que desarrollen el patrón de motivación por apr endizaje frente al de lucimiento, resultando terapéutico para aquellos alumnos/as que han desar rollado miedo al fracaso. Planteo una serie de objetivos para conseguir con estas actividades: _ Captar la atención y la cur iosidad por el contenido. _ Mostrar la relevancia de los contenidos más significativos de la actividad de aprendizaje. _ Conseguir mantener el mayor nivel de interés por el contenido de la actividad y evitar el abandono del esfuerzo preciso. Por orto lado las actividades de relajación, como síntesis en las sesiones sobretodo de las áreas de educación física y de música, ayudan a la relajación muscular que sirve como medio para obtener una relajación psicológica. La vuelta a la calma (actividad de síntesis) se presenta como el momento de la sesión más apropiado para desarrollar las prácticas de relajación, y su reiteración ayudará a fomentar hábitos que puedan transferirse a su vida ordinaria. La práctica de la r elajación aporta a nuestro organismo: - Disminución de la ansiedad. - Aumento de la capacidad de enfrentar situaciones estresantes. -Estabilización de las funciones cardiaca y respiratoria. - Aumento de la velocidad de reflejos. - Aumento de la capacidad de concentración y de la memoria. - Aumento de la eficiencia en la capacidad de aprendizaje. - Incremento de la habilidad para relajarse cada vez que lo necesite esté donde esté. - Sintonización armónica de la mente y el cuerpo. - Aumento de la capacidad de reflexión. - Aumento de la tendencia natural de conocerse a sí mis mo. - Aumento de la disposición del organismo a curarse a sí mismo. - Incremento de la capacidad creativa. - Mejor disposición para tratar a gente "tóxica" (Personas que nos invitan a sentirnos mal). - Aumento considerable de la capacidad de visualización interna dirigida. - Aumento de la facilidad de pensar en positivo. - Tendencia creciente al mejoramiento de la autoimagen positiva. - Aumento de la confianza en sí mismo. - Disminución de la tensión arterial. - Mejora en la circulación sanguínea. - Normalización de la respiración. - Sensación de eliminación de tensiones. - Aumento de la recuperación física y mental. - Aumento de la oxigenación cerebral. - Ensanchamiento del campo de conciencia. - Mejora en la calidad del sueño. - Mayor facilidad para recordar los sueños acontecidos mientras se duerme. 2. ACTIVIDADES DE MOTIVACIÓN. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Muévete animal. Desplazarse por el espacio imitando animales. “Hoy me he encont rado...” Los niños están sentados en círculo mirando hacia el interior . Uno de ellos dice: "Hoy me he encontrado un león" y se mueve como si él fuera un león. El jugador de su lado repite el animal que ha encontrado su compañer o y añade uno nuevo. "Hoy me he encontrado un león y una serpiente" (Realiza los movimientos correspondientes). Así sucesivamente. Cada niño tiene que repetir las palabras desde el principio en el orden correcto y añadir una más. Una variante: Realizar sólo los movimientos corporales sin nombrar el animal. El objetivo que se persigue, es memorizar palabras e interpretarlas corporalmente. “Ciempiés”. Los niños se colocan en fila, uno detrás de otro, con la mano derecha encima del hombro del jugador que tienen delante. El primer jugador de la fila representa la cabeza del ciempiés y debe inventar un movimiento corporal. Los demás niños deben repetirlo, siguiendo el tempo del pandero, hasta que éste quede en silencio. (El maestro/a dirige la marcha con un pandero). Cuando acaba la música, el primer jugador se dirige a la cola del ciempiés para que el nuevo jugador de cabeza invente otro movimiento, que los demás tendrán que copiar. Juegos de rol. Los personajes de los juegos de rol pueden cambiar en función de los temas que hayamos tratado últimamente en el aula: Liebres y conejos. Lobos y cerditos. Soles y lunas. Tiburones y peces. Previamente nos ponemos de acuerdo sobre los espacios (donde está la casa de la liebre, situamos la madriguera donde los conejos están protegidos,...). La mecánica del juego es siempre bastante parecida aunque con variaciones. Un ejemplo de cómo introducir el juego: ''Los grandes osos (dos o más niños que llevan una capa o algún otro distintivo) están durmiendo. Poco a poco se van despertando y se dan cuenta que tienen mucha hambre. Van a buscar peces para comer ( el resto de los niños/as) ‘‘. En definitiva se trata del juego de siempre de perseguir, atrapar , hacer prisioneros y llevárselos a casa, ir a salvar,... A menudo los niños/as incorporan en el juego movimientos y sonidos de los animales que representan. El carnaval de los animales. Escuchando la obra de Camille Saint-Saëns, “El carnaval de los animales”, los niños tendrán que moverse al ritmo y en aquellas partes que así lo r equieran, imitarán con gestos los instrumentos musicales que interpretan dicha parte de la obra, o imitarán al animal que corresponda en cada caso. Paseo en autobús. Esta actividad en un principio va dirigida al alumnado del primer ciclo de educación primaria, debido a su sencillez. Con esta actividad se pretende: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 _ Acercar al niño/a a los medios de transporte. _ Conocer las nociones básicas de educación vial. _ Respetar el silencio como elemento integrante en la música. _ Representar con movimientos, diferentes ritmos. _ Diferenciar los distintos aires y movimientos en la música. Se colocan las sillas en filas, los niños/as serán los pasajer os que vayan subidos en el bus. Un niño/a hará de conductor que será el primero de dicha fila, este tocará el silbato para avisar que el bus se pone en marcha. Arranca. Las sacudidas se notan en los cuerpos de los viajer os/as, que se tambalean hacia delante, hacia atrás, según acelere o disminuya la velocidad. (Esta marcha la ira marcando con un pandero, dando golpes más lentos o más rápidos). Se inclinarán hacia un lado o hacia otro en las curvas, cuesta arriba ira más lento y cuesta bajo más rápido. Después el maestro/a le ira mostrando al conductor/a una serie de señales de tráfico que debe respetar el autobús, haciendo paradas obligatorias, como por ejemplo: un paso de cebr a, un semáforo en rojo, dirección prohibida, Calle cortada por obras, paradas oficiales para que suban y bajen viajeros/as, etc. Formas Geométricas. Con esta actividad pretendemos que reconozcan las for mas geométricas básicas a través de la expresión cor poral. (Especialmente para primer ciclo). Por otro lado, en el área de música se reforzar á este reconocimiento con los instrumentos musicales escolar es de percusión. Ejemplo: Rectángulo: caja china, Triángulo: triángulo, Círculo: pandero, etc. Distribuidos por todo el espacio, experimentamos las posibilidades motr ices, haciendo las figur as geométricas básicas con las manos, con los br azos, con los pies, piernas, con dos par tes a la vez, con todo el cuerpo, más grandes o más pequeñas, etc. Después haremos imitaciones y representaciones, por ejemplo los gestos cir cular es de brazos y manos pueden tener una significación o imitación: Conducir un coche, dar vueltas a una manivela, batir alimentos, imitar las aspas de un molino de viento, un ventilador, etc. Otra manera de trabajar, sería haciendo diseños (dibujar la figuras en el espacio) y desplazamientos con las manos, pies, etc. El juego de la estatua. Los niños/as se distribuirán por todo el espacio, bailarán al ritmo de la música que escuchen, y cuando ésta cese, quedarán como estatuas, el que se mueva quedará eliminado del juego. (Esta actividad también se puede hacer como actividad de síntesis en una sesión). Acciones. Se forman dos grupos, a cada componente del grupo se le asigna (maestro/a) un verbo, y tienen que representarlo corporalmente. Los componentes del otro grupo deberán acer tarlo. Luego se intercambian los papeles. Números. Se selecciona un grupo de siete niños/as, a los cuales se les entregará un instrumento de percusión de madera (Claves, caja china, etc). El resto de la clase se coloca alrededor de ellos/as. El maestro/a asigna a un niño/a para que comience, éste Da un golpe con el instrumento musical en cuestión. El niño/a de su derecha tiene que dar un golpe más uno, el de su lado dos golpes más otr C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 o, y así sucesivamente. El niño/a que da tres golpes debe remarcarlos y decir que ha llegado a un múltiplo de tres. (¡tres!). Si en algún momento alguno se equivoca y por tanto se rompe la secuencia, se vuelve a empezar . La pelota caliente. Los alumnos/as colocados en corro se van pasando una pelota al ritmo de la música y procurando que no caiga al suelo, ya que si esto ocurre será eliminado del juego. Por otro lado se eliminará del juego a aquel niño o aquella niña que tenga la pelota en la mano cuando la música deje de sonar. Caminamos por el espacio. Andamos, por todo el espacio de la sala, sin tocar a nadie; primero despacio y después, a una señal, más deprisa. Con esta actividad, se trabaja el aire o movimiento (música). Esta actividad se puede ampliar o modificar, según los contenidos que se vayan a trabajar en esa sesión. Por ejemplo, si queremos tr abajar diversos ritmos, damos la consigna de que caminen al ritmo que se va marcando con el instrumento musical de percusión que se elija: pander a, caja china, triángulo, etc. de esta manera también iremos introduciendo el instrumento musical que vayamos a enseñar en esa sesión. (Los instrumentos musicales escolares se van presentando en el primer ciclo de Educación Primaria). Carreras del mundo al revés. Realizar carreras en las que ganará el último en llegar a la meta. También puede hacerse una variación del juego y realizar carreras de este tipo, pero con obstáculos o en circuito. Iconografías colectivas. Numerar a los participantes. Se elegirá un lugar específico donde realizar la actividad. El/la alumno/a número 1 saldrá a escena y hará una postura, que deberá mantener todo el rato. El número 2, saldrá a escena e intentará compensar la posición del compañero para que intente tener sentido. Así sucesivamente, hasta que hayan salido todos los/as alumnos/as. También puede incluirse composiciones con pelotas o aros. Una vez hecha la composición, el profesor gritará "Movimiento", y todos deberán empezar a correr por la sala, hasta que el profesor grite "Foto", momento en el cual, los alumnos deberán volver a la posición inicial que habían creado. ¿Quién es? En gran gr upo y sentados en círculo, con la cabeza agachada, tendrán que adivinar el sonido y la fuente sonora que producirá alguno/a de sus compañer os/as. El maestro/a indicará al que produzca el sonido con una palmada en la espalda. Los sonidos pueden ser diversos: _ Un grito. _ Tararear o cantar una canción. _ Murmullo, etc. Esta actividad puede tener diferentes variantes, se puede realizar de pie con los ojos vendados, excepto el que emite el sonido que irá a cara descubierta y todos deben caminar hacia la fuente sonora. Por otro lado, esta actividad se puede realizar con instrumentos musicales, para discriminar su timbre. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Cuento musicado. Se trata de que la maestra o maestro va narrando un cuento y los niños/as deben realizar sonidos acordes con él, con diversos materiales que haya en el aula, incluso utilizar onomatopeyas cuando la situación lo requier a. Ejemplo: Para simular el río, haremos glisandos con el carillón, o cuando haya una tormenta usar el bombo y el plato, etc. Dentro o fuera. Se reparten aros de colores por el suelo del aula, uno para cada cuatro apr oximadamente. Los niños/as deben ir caminando al ritmo de la música y por fuera de los ar os, y cuando la música cese todos deben estar dentro de un aro. De esta maner a aquellos/as niños/as que están fuera, quedarán eliminados del juego. Jugamos con el soplo. Esta actividad, está enfocada principalmente para el área de música. Sirve como actividad inicial y de motivación a las sesiones dirigidas al uso de la flauta. Se trata de practicar una batería de soplos, atendiendo a una serie de consignas: _ Soplar nor mal como si se fuera a apagar una vela. _ Soplar fuerte como si quisieras apagar de una vez las velas de tu cumpleaños. _ Soplar como si apagaras las velas de tu tarta de cumpleaños, pero una a una. Sin respirar. Se realizarán tantos soplos como años se tenga. (2º ciclo). _ Ahora el mismo procedimiento que el anterior pero cortando el flujo de aire sacando la punta de la lengua. _ Haz una pedorreta haciendo vibrar los labios fuerte. _ Intenta soplar vibrando la lengua como si se pronunciara la letr a R:rr rrr rrr rrr r, pero sin producir sonido. _ Soplar aire frío, todo lo que se pueda. (Sonidos agudos) . _ Sopla aire caliente. (Sonidos graves). _ Sonr íe y sopla a la vez hacia abajo. _ Ahor a sopla hacia tu nariz. _ Sóplate un ojo y luego el otro. _ Sóplate una oreja, luego la otra. 4. ACVTIVIDADES DE RELAJACIÓN ¿Quién anda ahí?”. Los niños se colocan libremente por parejas uno delante del otro. El niño de detr ás presiona con las manos la espalda de su compañero, simulando las huellas que dejarían los animales al desplazarse por ella. Por ejemplo, el elefante se realiza con los puños cerrados; la hormiga con la yema de los dedos; la rana con movimientos discontinuos, como si saltara; la serpiente con un movimiento continuo, etcétera. El niño de delante debe adivinar qué animal se ha paseado por su espalda. Luego inter cambian papeles. Pretendemos sensibilizar las diferentes zonas de la espalda y responder a una reacción táctil. Música: Sinfonía Pastoral de Beethoven. Masajes. Se pueden realizar varias actividades de relajación usando los masajes, una de ellas es la que anteriormente hemos citado. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Pero otras que se pueden hacer serían: _ Usar pelotas de masaje. (Presionar la pelota en la espalda del compañer o/a). _ Usar las propias manos. (Especificando el movimiento de éstas). Expresión artística. Con pintura de dedos y en papel continuo, tiene que expr esar los sentimientos que le produce la música. También se pueden pintar la línea melódica de la música. Burbuja de aire. Todos los niños/as se colocan en el centro de la clase de pie, separados unos de otros/as. Nos imaginamos que estamos dentro de una burbuja grande, en la que podemos mover los brazos arriba, a los lados, abajo, haciendo círculos como si fueran las aspas de un molino, todo el cuerpo se mueve hasta donde pueda llegar, da vueltas, per o sin salir del sitio. Estaremos a tal distancia de los demás que no los podremos tocar, ni ellos a nosotros/as. Ese es nuestro espacio propio, nos pertenece sólo a nosotros/as. Imaginamos que esa burbuja sube por el aire y estamos dentro de ella. Ahora no pesamos, somos ligeros/as como una pluma. Nuestr o cuerpo, los brazos son muy grandes y se mueven de muchas for mas. Pero la burbuja poco a poco se va haciendo más pesada, por eso bajamos de nuevo al suelo, y más pequeña, se va cerrando, e impide hacer movimientos, se va haciendo más pequeño hasta que sea como una pelota, ya no podemos movernos. Pero de pronto, la burbuja explota y tú das un salto, abriendo los brazos, y ya estamos libres del todo par a hacer los movimientos que se quieran por todo el espacio. Usaremos una música relajante. La energía. Imagínate que dentro de tu cuerpo, en el abdomen, tienes una fuente que produce una energía, una fuerza muy grande, y tiene que salir de tu cuer po hacia todo el espacio como si fueran r ayos. Por eso, por tus pies, por tus manos, por tus dedos salen a toda velocidad y muy fuertes los rayos de energía que llegarán muy lejos, atravesando las paredes, el techo, el suelo. Tienes que dirigir esa gran corriente que empuja desde dentro del cuerpo hasta todos los puntos del espacio que está a tu alrededor. Círculos y rectas en el aire. Con tus manos dibuja en el aire, y después en el suelo, objetos redondos: aros, panderos, pelotas, globos, platos, ruedas, el sol, la letra O, el número cero, un disco... De rodillas en el suelo. Con tus manos dibuja en el aire, y después en el suelo, objetos rectos: palos, bastones, lápices, cepillo de barrer, fregona, cohete, árboles... Usaremos como material: papel continuo, pinturas de dedos y rotulador es de punta gruesa. Estatuas. Nos colocamos en distintos lugares del espacio y de distintas formas (de pie, de rodillas, sentado, agachado, etc.), y hacemos con el cuerpo distintas estatuas. Después las harán por grupos., y los demás tendrán que adivinar a la estatua que representan. Estamos en una botella. Escuchando una música tranquila, se pide a los/as niños/as que se posicionen sentados/as o, preferiblemente estirados/as, mediante la música, y a través de las indicaciones del profesor, muy poco a poco han de imaginar que se hacen pequeños y se introducen en una botella. Luego C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 imaginan que intentan salir, pero que no se pueden estirar. Seguidamente, logran romper la botella, se estiran completamente, y permanecen un rato descansando. Cada uno cogerá un folio y en el lugar que prefiera de la sala, realizará un dibujo relacionado con la experiencia de la botella. Todos sentados en círculo. Cada uno/a debe explicar el dibujo que ha hecho al resto de compañeros/as. Seguidamente, se debe explicar cómo se siente cada uno, cómo se lo ha pasado, qué es lo que más le ha gustado y lo que menos, etc. Tensión y relajación. Relajación por contrastes, a la orden, primero global: ¡De hierro! ¡De trapo! ¡De piedra! ¡De plumas! Relajación por contrastes, a la orden segmentaria: brazos, piernas, nalgas, cabeza (levantar sólo un poco y dejar caer) . Pasar de un estado de tensión a uno de relajación pero esta vez muy r ápido. En parejas, uno controla al otro, para comprobar si de verdad es de hierro, de tr apo... Otras variantes: "Transporte del congelado". Grupo dividido en equipos. Relevos. Transportar al congelado (rígido) sin que se rompa de un lado al otro del espacio. Luego hacer lo mismo pero como si estuviera derretido. Comparar las diferencias. Preguntarles cómo pesa más. "Dale la vuelta a la estatua". Grupo dividido en par ejas. Uno se pone en el suelo de tal manera que el otro no le pueda dar la vuelta. Primero oponer toda la resistencia posible. Luego dejarse. Compar ar las diferencias. "Urgencias". Gran grupo dividido en equipos. Se trata de trasladar lo más rápidamente posible a los "heridos" de un sitio a otro de la sala. Globos Se deja el globo en el suelo y se sopla sobre él para que se mueva. Después se puede organizar un concurso, para ver quién lleva el globo más lejos soplando. Inventar con un compañero/ diferentes formas de intercambiarse el globo. Luego se puede intentar con dos globos a la vez. BIBLIOGRAFÍA Trias, N. (2002). Juegos de música y expresión corporal. Madrid: Parramón. De las Heras, R. (1993).Actimúsicas 9. Madrid. Ediciones ARA. Rey Gómez, J.M., Hidalgo Diez, E. y Espinosa Manso, C. (1989).La motivación en la escuela. Málaga: Ágor a. www.efdeportes.com C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 “LA IMPORTANCIA DE LA PRENSA EN EL SISTEMA EDUCATIVO COMO RECURSO DIDÁCTICO” AUTOR: MANUEL ALEJANDRO MARTÍN MORENO Resumen Es evidente que los periódicos no están escritos para los escolares, pero su uso en las aulas es muy recomendable. Con frecuencia, encontramos en ellos noticias o reportajes que hacen referencia a la ciencia, a nuevos descubrimientos, a lugares remotos, a espacios geográficos y naturales de mucho interés... (y a otras muchas cosas que hoy no vienen a cuento). La lectura de esos textos, más la visión e interpretación de las infografías, mapas, fotografías, etc. que los acompañan son elementos que ayudan al maestro o la maestra a presentar determinados temas y a facilitar su comprensión. 1. LA PRENSA Y SUS POSIBILIDADES DIDÁCTICAS De acuerdo con Sevillano y Bartolomé (1989), el uso ocasional o sistemático de la prensa en las aulas desarrolla en el alumnado entre otras ventajas las siguientes: a) Permite ampliar la cosmovisión del alumnado al introducir en el proceso de enseñanzaaprendizaje contenidos cargados de actualidad que hacen funcionales sus aprendizajes y los llenan de significado. b) Fomenta la inquietud por tener conocimiento global: política, humor, deportes, religión, mundo laboral, leyes, sucesos, vida internac inal. c) Agiliza los procesos mentales al incorporar textos dinámicos, cambiantes, globalizadores y fomenta la transferencia. d) Armoniza el diálogo, el estudio, el trabajo en grupo, las técnicas de búsqueda, selección y clasificación de información, puestas en común... e) Libera del innecesario memorismo d nombres, fechas y lugares para dedicarse más tiempo a las grandes líneas de pensamiento y acción que son las que han movido y mueven la actividad de la humanidad. f) Actualiza lo histórico al contemplar cómo los hombres y mujeres de hoy organizan congresos, encuentros, publican obras, celebran centenarios y recuperan la memoria, el recuerdo y la actividad de otros hombres y mujeres o de hechos y acontecimientos del pasado. Puesto que la prensa es un material rico y cargado de matices e intenciones, hemos de ser cuidadosos al introducir su uso en el aula y por ello es conveniente tener en cuenta: Se deben utilizar diversos periódicos o revistas para que la información sea plural y permita al alumnado discernir entre las informaciones y opiniones que se manifiestan sobre un hecho o acontecimiento. Cuando sólo se utiliza un periódico, se niega la libertad, el pluralismo y el respeto, C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 ya que, en mi opinión, la objetividad y la bondad no se da en ninguno, aunque todos participan algo de la independencia, libertad de expresión y objetividad en los juicios e informaciones. Debe existir una línea de acción clara y una planificación acerca de las actividades que deben realizar los alumnos, en caso contrario, aumenta el riesgo de perderse en el bosque de la información, las noticias triviales, los sucesos, sólo deporte, etc. En este sentido, tampoco se debe censurar ninguna sección del periódico. Todas deben ser estudiadas y contempladas pero cada una en su momento o cuando sea necesario. Desde el punto de vista organizativo, presupone entre otras cosas: Una nueva concepción del currículo escolar, de funciones de la enseñanza y del aprendizaje e innovaciones en cuanto a los contenidos, la metodología y la evaluación. Todo el aula debe contagiar aprendizaje. Se aprende con todos los sentidos. Todo el espacio estará en función del aprendizaje. Por tanto, las paredes serán un gran mural donde colocar recortes de interés general, acerca de diferentes temas, de actualidad, formativos, etc. El aula debe ser un centro de recursos pues, la prensa es más eficaz cuando se dispone de diccionarios, enciclopedias, libros o multimedia de consulta y ampliación de temas que enriquezcan el aprendizaje. La prensa, a igual que cualquier otro medio de comunicación, nos ofrece, al menos, dos posibilidades fundamentales para su uso en el aula: como objeto de estudio y como medio o instrumento para el aprendizaje, en la doble vertiente de recurso didáctico y/o medio de expresión creativa por parte del alumnado. Además la prensa, como medio de comunicación, se convierte en un gran eje transversal, tal y como se entiende desde el DCB como un conjunto de aspectos de especial relevancia durante los últimos años, que no aparece apropiado incluirlos ni como áreas aisladas ni como bloques de contenidos dentro de un área concreta. Parece mejor impregnar la actividad educativa en su conjunto con estos contenidos, por lo que se incluyen en varios bloques de las distintas áreas. Desde esta perspectiva podemos concretar diciendo que la prensa, nos ofrece entre otras, las siguientes distintas posibilidades didácticas: a) La prensa como objeto de estudio. Para ello podemos elaborar unidades didácticas destinadas a un área o asignatura concreta como Lengua en la etapa de Primaria. b) La prensa como eje transversal. Igualmente podríamos elaborar materiales de apoyo que no se enmarcarían en ningún área sino que irradiarían la mayor parte de ellas, dándoles un carisma vivo y de actualidad a sus contenidos, que pueden ser tratados incluso en diferentes niveles, atendiendo s iempre a las edades psicoevolutivas de los niños y jóvenes a quienes se dirige y a su contexto, para que los aprendizajes les sean significativos. Desde esta perspectiva podemos decir que la prensa se convierte en importante tema transversal. c) La prensa como recurso didáctico o material auxiliar de las diferentes áreas o niveles. Esto supone por parte del profesorado la recopilación de un banco de datos, noticias e informaciones recogidas a lo largo del tiempo de tal forma que cuando éste aborde una unidad didáctica determinada disponga de estos recursos para su desarrollo. En este sentido, sólo recordar que los materiales deben ser actualizados de forma sistemática ya que de cualquier otra forma quedarían C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 obsoletos y, por tanto, no cumplirían su función de motivadores y sus aprendizajes no tendrían la misma carga de significación y funcionalidad. d) La prensa como medio de expresión creativa por parte del alumnado. Es la vía de participación del alumnado en la elaboración de la prensa en un doble sentido bien elaborando o participando con la prensa local que suele leer o bien elaborando un periódico escolar en su propio centro. Esta vía suele tener un gran atractivo para el alumnado ya que de esta forma se siente auténtico protagonista y es un espacio adecuado para verter y desarrollar de forma activa los aprendizajes que ha realizado. Por otro lado, entiendo que las técnicas de trabajo en el aula con prensa son un recurso que ofrece otras posibilidades didácticas que antes no se han especificado: • Pueden resultar rentables al profesorado tanto en gasto de energía personal como en el cumplimiento de objetivos; • Requieren bajo costo económico y pueden desarrollarse sin complicaciones en cualquier aula; • Son lo suficientemente flexibles como para encajar en las propuestas de las finalidades educativas de un Centro; • Permiten la formación de equipos de trabajo y la colaboración; • Facilitan la motivación por la tarea a realizar. 2. SELECCIÓN DE DOCUMENTOS DE PRENSA Los documentos de prensa son un material que está en la sociedad actual. Puede considerarse a los textos de prens a como " el eje en torno al que se desenvuelven la vida en las sociedades contemporáneas". Por tanto, "es fundamental suscitar la capacidad de seleccionar los mensajes de manera crítica y clasificar olas de información discontinuas y heterogéneas en conocimientos organizados y coherentes" (Pérez Serrano, 1985). Una reflexión, quizá demasiado utilizada, demasiado manoseada ya ha sido la consideración de que en un mundo cada vez más complejo y donde el impacto de los medios de comunicación social es evidente, la escuela no puede quedar al margen (Rotger y Roque, 1982; Miravalles, 1985). Para hacer uso de los documentos de prensa de manera eficaz, habría que tenerse en cuenta una serie de pautas, que exponemos muy brevemente: a) Consideraciones generales: Como consideración primera, señalar la importancia de utilizar el documento de prensa integrado en el planteamiento didáctico como un elemento más y no usarlo como un "juguete del momento". No se trata tanto de: -"ahora que no sé que hacer... vamos a jugar un poco" como de programar actividades para momentos concretos. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 b) La selección propiamente dicha: Para seleccionar un documento, debemos tener en cuenta su adecuación a los objetivos, el nivel de complejidad, el costo, la disponibilidad o el acceso que tenemos a dicha información y la cualidad técnica. c) Evaluación de los documentos: Para poder evaluar, a modo de sugerencia, incluimos una serie de preguntas que deben ser consideradas por el docente: ¿Ayudará a alcanzar los objetivos?, ¿incorpora elementos de comparación y reflexión?, etc. 3. METODOLOGÍA A SEGUIR EN EL USO DE LA PRENSA EN EL AULA La metodología que vertebra las técnicas de trabajo en el aula con prensa se ajusta a las siguientes notas distintivas: 1) Activa , en cuanto que facilita el trabajo conjunto entre el docente y el grupo de aprendizaje: se investiga, se descubre... en colaboración con otros. 2) Dialogante , en la medida en que se utiliza la interacción comunicativa como medio eficaz para asociar a los alumnos en la gestión de su propio proceso de aprendizaje. 3) Grupal , en cuanto que se potencia el trabajo cooperativo como fórmula general. 4) Flexible y abierta, porque es susceptible de modificaciones, dependiendo del grupo de alumnos con el que se trabaja. 5) Investigadora, ya que se utiliza el trabajo y el descubrimiento para que el grupo de aprendizaje analice los problemas. Consideramos que esta metodología actúa cubriendo un amplio abanico de influencias cuyos efectos se producen en el ámbito cognitivo, en el afectivo-social, el creativo-dinámico y en el ámbito relacional. 4. NUESTRO PERIÓDICO ESCOLAR A lo largo de varios cursos se han realizado varios boletines del periódico escolar del CEIP Virgen del Rosario (Jayena), desde que en 2004 se empezar á a realizar el periódico escolar en este centro. Quiero resaltar que la metodología seguida en este colegio, incluso en mi aula, para trabajar la prensa en la enseñanza es la referida en el punto D) del apartado 1, es decir, "la prensa como medio de expresión creativa por parte del alumnado”. Y eso es así porque a opinión de la gran mayoría del profesorado del centro, creemos que la mejor forma de utilizar la prensa en el aula es elaborando un periódico escolar en el centro. Como ya dije, esta vía es muy atractiva para el alumnado ya que los implica en el proceso de elaboración y se hacen participes o protagonistas, lo cual lleva a un aprendizaje totalmente significativo. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Además, que mejor forma hay para el alumnado de conocer las noticias de su entorno que hacerles buscar las noticias más relevantes de los últimos días en su pueblo o entorno. Por otro lado, una vez terminado el periódic o, todo tipo de alumno y alumna, de todos los cursos, puede obtener una copia con la cual poder leer las noticias, las cuales son del interés del alumnado puesto que se han recopilado de informaciones del entorno de todo tipo (deportes, cultura, sucesos, actividades extraescolares, fiestas, etc). Esta posibilidad para los niños y niñas del colegio no existe en oros medios de comunicación en los que las noticias nos las entregan empaquetadas, con la extens ión y profundidad que desea el editor, y sin la consecuente cercanía al entorno que puedan llegar a tener las noticias del periódico escolar. Una vez terminado el periódico escolar se envía a la filmadora en la que se elabora todas las copias que se repartirán a toda la comunidad educativa. Para que todo fuera por buen cauce, se necesita la colaboración económica de todos los habitantes de Jayena (o de la comunidad educativa en concreto) para que se mantenga las publicaciones que se realizan. Su sostenimiento económico empezaba por su adquisic ión. El último número tuvo un coste económico de 2 € cada ejemplar y se vendió al precio de 1 € gracias a la colaboración del Excmo. Ayuntamiento de Jayena y la Editorial S.M. En alguna publicación colaboraron además de los mencionados anteriormente, "Viajes Ainhoa" y "Caja de Granada", los cuales aparecen en los apartados reservados para la publicidad en el periódico. La publicación de los diferentes artículos es gestionada por una Comisión del Consejo Escolar del Centro que fue creada durante el curso escolar 2003-2004 para supervisar la idoneidad de los artículos. Para especificar mejor como se llevo a cabo el proceso de elaboración del periódico escolar, así como de participación de toda la comunidad educativa, especificaré en el apartado siguiente los pasos que se siguen para su buen desarrollo. 4.1 Proceso de elaboración del periódico escolar La redacción del periódico escolar puede hacerse a nivel de aula o a nivel de todo el colegio. Voy a explicar la estructura organizativa seguida en nuestro colegio. La estructura suele ser piramidal y en su cúspide se encuentra el director (que será el director/a o el jefe/a de estudios del colegio). Junto a él se encontrarán tutores que serán los responsables de seleccionar y priorizar los contenidos informativos que obtendrán los alumnos y alumnas del centro, que serán los grandes responsables de la búsqueda y selección de la información. Estos contenidos seleccionados serán los que configurarán el periódico. Cada tutor enviará la información correspondiente al director, el cual se encargará finalmente de elegir las noticias que aparecerán en el periódico, así como de la extensión de cada una de ellas. El director funciona como el conductor de orquesta, procurando una gran coordinación para que todos los tutores ejecuten en sus tiempos respectivos la tarea asignada y el resultado de conjunto sea el previsto. Para esta labor el director cuenta con los tutores que son quienes coordinan a sus alumnos/as para que la información esté ordenada por secciones y tenga su debida redacción. El primer paso que se sigue para la redacción de un periódico la búsqueda de noticias por parte de los alumnos y alumnas de cada curso. Hay varias formas de dirigir este proceso. O bien, cada curso C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 se encarga de una sección o por otro lado, en cada curso, se divide en grupos para encargarse de las distintas secciones del periódico. Los contenidos informativos de un periódico se presentan a los lectores con un orden y una estructura. Esta estructura facilita la localización y selección de cualquier contenido y, dependiendo de los intereses del lector, establecer su propio orden de lectura. Al elaborar el periódico entre alumnado y profesorado, éstos se dan cuenta de esta estructura y de su por qué. La estructura de nuestro periódico escolar en secciones se realiza considerando fundamentalmente dos criterios: El ámbito territorial o geográfico en el que se producen los hechos o informaciones, dando lugar a las secciones de Nacional, Regional (Andalucía), Local (Jayena). Sectores o temas de interés. En este caso la información se agrupa por su contenido con independencia del lugar en el que suceda. De acuerdo con este criterio nos encontraremos con las secciones de Sociedad, Cultura, Economía, Deportes, Espectáculos, Sucesos, Actividades extraescolares, etc. No obstante, consideramos que si una noticia puede responder a más de un criterio, puede tener ubicación en más de una sección del periódico escolar. Por otro lado, el director del colegio (director del periódico) utiliza una herramienta organizativa para que el periódico escolar tenga un guión que lo estructure: el planillo. El planillo es el documento en el que se pueden vis ionar todas las páginas que tendrá el periódico y los elementos que lo irán conformando. Será la guía de planificación y dónde se reflejan las modificaciones que se vayan realizando a lo largo de todo el pr oceso de producción. En la primera planificación se tiene en cuenta: la publicidad contratada, previsión de noticias, paginación, etc. A partir de estos primeros elementos se realizará la distribución de los temas y la publicidad en las distinta páginas. Con esta primera planificación, el director y los tutores conocen las páginas asignadas a cada secón (aún se pueden modificar) y el espacio ocupado por la publicidad y a partir de aquí, se empiezan a configurar las páginas de nuestro periódico. La estructura de las páginas no suele ser arbitraria sino que se ajusta a ciertos esquemas establecidos por el periódico dependiendo de la relevancia que se quiera dar a una determinada noticia. La jerarquización a la que aludo anteriormente se manifiesta en el tratamiento dado a la noticia en cuanto a titulares, columnas, lugar de la página, fotografías, etc. Para la redacción del periódico se tiene en cuenta los ciertos convencionalismos, que además han de ser explicados al alumnado una vez recopiladas las noticias: La portada recoge lo más importante del periódico. Las secciones fijas priman sobre las no estables. Los artículos de opinión de colaboradores tendrán más importancia cuanto más cerca estén a los intereses del alumnado. Las páginas pares se ven menos que las impares. La mitad superior del periódico se ven menos que las impares. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Una información con un bloque de titulación múltiple (epígrafe, título, subtítulo, subtítulos inferiores, etc.) tiene más importancia que una información sin bloque. Por otra parte, se estudiarán las fotografías y se decidirán las que no apoyarán el temas o temas principales (siempre a decisión de tutores y director). Las fotografías podrán ser, realizadas por los niños y niñas del colegio, bajadas de Internet, sacadas del ordenador o fotocopiadas de algún articulo de revistas o similares. Por último, se comienzan a cerrar las páginas una vez que las noticias están colocadas en sus respectivas secciones y las fotografías y publicidad también están debidamente colocadas. Conforme se van cerrando páginas se editan en papel, se revisan y cuando tienen el visto bueno de todos los tutores y director se envían a la filmadora para que haga sus respectivas copias. 5. BIBLIOGRAFÍA PÉREZ SERRANO, G. (1985): El análisis de contenido de la prensa. Madrid. UNED. MIRAVALLES, L. (1985): Iniciación al periodismo escolar. Salamanca. Instituto de Ciencias de la Educación. ROTGER, B. Y ROQUE, J. (1982): Cómo leer la prensa escrita. Madrid. Escuela Española. GONNET, J. (1984): El periódico en la escuela. Creación y utilización. Madrid. Narcea. LA PRENSA EN EL AULA (1993) : Suplementos “Aula de prensa”. Madrid. Álabe. VISO, J.F. (1992): “Profesores dinamizadores de prensa”. Alminar. TÍTULO: Perspectiva histórica de la Inteligencia Artificial. Aplicación a la didáctica de la Informática y de las Matemáticas. AUTOR: JAVIER CAYETANO RODRÍGUEZ. Resumen: En este artículo se aborda la disciplina de la Inteligencia Artificial desde una perspectiva histórica, procurando que sirva como apoyo en la práctica docente de las áreas científicas directamente relacionadas con ella: la informática y la matemática. INTRODUCCIÓN: La inteligencia artificial (IA) es un área de conocimiento muy atractiva para los alumnos tanto de estudios universitarios como de educación secundaria y bachillerato. Sus objetivos y algunos de sus logros han sido ampliamente divulgados (a veces hasta la exageración), por ejemplo en la ciencia ficción. Este interés puede aprovecharse para conectar con otras disciplinas más “áridas” para los alumnos, como puede ser la matemática, especialmente alguna de las partes más abstractas, como la resolución de problemas o diseño de algoritmos. Para ello, pensamos que puede hacerse dando algunas “pinceladas” sobre la relación que tienen las matemáticas con la IA, bien comentando cómo han intervenido en su evolución histórica, o bien mediante la aplicación directa de contenidos y conceptos matemáticos a la resolución de alguno de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 los problemas de IA. Como ejemplo tenemos el uso de vectores, el álgebra booleana, máquinas de Touring, lógica matemáticas, etc. En este artículo veremos cuáles son los principales conceptos de la IA, su relación y tratamiento matemático (de manera descriptiva) en las distintas fases por las que ha pasado la IA. También se repasarán los conceptos básicos que maneja la IA. En primer lugar, revisemos qué se entiende por “Inteligencia Artificial”. Es conveniente tener claro a qué nos referimos al utilizarlo, pues en muchas ocasiones difiere de la idea preconcebida que tenemos debido a referencias previas que tenemos, como las que nos pueden llegar de la ciencia ficción. 1. CONCEPTO DE INTELIGENCIA ARTIFICIAL. El propósito de la inteligencia artificial es hacer computacional el conocimiento humano no anatítico por procedimientos simbólicos, conexionistas o híbridos. Para el conocimiento analítico existen otras ramas de la computación que estudian los métodos y técnicas adecuadas para su representación formal y posterior desarrollo de los programas de ordenador correspondientes. Para conseguir una visión razonablemente amplia del contenido de la inteligencia artificial usaremos criterios extensionales (porporcionando una relación lo más completa posible de los temas que estudia la inteligencia artificial), junto a otros criterios intensionales (que establecen las reglas de clasificación), de forma que al enfrentarnos con un problema computacional (o con un método de solución) específico podamos concluir si pertenece o no al campo de la inteligencia artificial en función. Así, en la inteligencia artificial existen dos perspectivas básicas: a) La inteligencia artificial como ciencia de lo natural o análisis El procedimiento teórico busca una explicación de esa correlación en términos de un conjunto de leyes generales de un nivel superior que permiten predecir lo que ocurriría en otros casos no observados. Realmente lo que hace es buscar un modelo del conocimiento humano, generalmente organizado en varios niveles (estático, dinámico y estratégico) para poder usarlo en predicción. Esta técnica se basa en experimentos para conseguir una teoría del conocimiento computable con capacidad predictiva (como una ley física) b) Inteligencia artificial como ciencia de lo artificial o ingeniería de síntesis Aspira a convertirse en una ingeniería en sentido estricto. Ahora se parte de un conjunto de especificaciones funcionales y se busca la síntesis de un sistema (programa más máquina) que las satisfaga. A su vez en ambas ramas cooperan dos paradigmas, que constituyen dos formas de analizar un proceso y dos metodologías de síntesis de una solución: Computación simbólica, de grano grueso y programable. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Computación conexionista, de grano pequeño y autoprogramable por aprendizaje. En inteligencia artificial trabajamos con información y conocimiento, y ambos son pura forma, totalmente independiente del sistema físico que las soporta. El resultado es un programa de ordenador sobre una máquina específica desarrollado a partir de un modelo del conocimiento que supuestamente usa el operador humano que realiza esa tarea. Las tareas que aborda la inteligencia artificial de síntesis son tareas de alto nivel, y pueden clasificarse en tres grandes grupos ordenados en grado de dificultad creciente: 1. Dominios formales.- Las tareas toman la forma genérica de solucionadores de problemas mediante búsquedas en un espacio de estados de conocimiento y pueden ser juegos o problemas lógico-matemáticos. Son tareas precisas en el conocimiento, con pocos elementos y su comportamiento se puede describir de forma completa e inequívoca. Son micromundos formales. Este apartado forma parte de la etapa inicial de la inteligencia artificial y aportó los procedimientos de búsqueda como tarea genérica 2. Dominios técnicos.- Tienen que ver con el diagnóstico médico, la detección de fallos, la planificación de trayectorias de robots, etc. Aquí. La tarea a sintetizar admite una representación dentro de una jerarquía de tareas genéricas de análisis, de modificación o de síntesis que son válidas en muchas aplicaciones con sólo modificar la parte del conocimiento que hace referencia a entidades específicas del dominio de la aplicación. La característica de estas tareas es el carácter limitado del conocimiento que manejan (dominios estrechos) y la posibilidad de formalizar ese conocimiento con las técnicas disponibles. Ha dado lugar a la Ingeniería del conocimiento y busca procedimientos de síntesis de sistemas con las siguientes facetas: a) se parte de la descripción de la tarea a nivel de conocimiento (Allen Newell). Para ello es necesario realizar un proceso de obtención de ese conocimiento a partir del experto humano que lo posee. b) se busca una representación de ese conocimiento separándolo de los mecanismos de aplicación del mismo (inferencia) de forma que pueda acumularse por procedimientos incrementales (donde no es deseable una separación total) c) se seleccionan las técnicas adecuadas para su implementación y se desarrolla un primer prototipo d) se hace énfasis en el carácter de ingeniería buscando procedimientos (explícitos, reproducibles y parcialmente independientes del dominio) sistemáticos de implentación, evaluación y refinamiento de esos prototipos e) se usan lenguajes y entornos de programación que facilitan el desarrollo rápido y eficiente de aplicaciones 3. Funciones básicas y genuinas del comportamiento humano.- Realmente es lo que hacemos a todas horas sin darnos cuenta; ver, oír, caminar, pensar, hablar, etc. Por su importancia se le va a dedicar el siguiente apartado. 1.2 Idea intuitiva del comportamiento artificial C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 El concepto de inteligencia está sacado de la psicología cognoscitiva y pertenece a una familia más amplia de construcciones teóricas para ayudar en la descripción del comportamiento observable de sistemas complejos en interacción con su medio. Hablar de la inteligencia artificial en ese sentido supone querer comprender y duplicar las funciones del comportamiento humano. Algunas de sus características son: a) Su aparente simplicidad en el ser humano. b) Lo complejo que son los procesos cognoscitivos elementales a la hora de sintetizarlos. c) El uso masivo de conocimientos, suponiendo que los mecanismos de inferencia por encadenamiento de reglas son insuficientes para modelar tareas cognoscitivas (hace falta un lenguaje de representación con la capacidad y robustez del lenguaje natural). d) El estilo peculiar de computación que usa el ser vivo. Toda computación artificial es extensional, por el contrario hay evidencias sobre el carácter intensional (por propiedades) e intencional (por propósitos) de la computación biológica, donde la inferencia es inmediata (refleja). e) El reconocimiento (según Maturana y Varela) de que todo conocer depende de la estructura que conoce (lo cognoscitivo es propio de lo vivo). f) La hipótesis fuerte de la IA es hacer computacional este conocimiento propio de lo vivo (reducir los procesos cognoscitivos a un nivel simbólico). En un diagrama funcional de un agente inteligente (Newell y Simon), el agente interacciona con su medio a través de un conjunto de sensores. Posteriormente se realiza un procesamiento multisensorial de alta semántica con referencia a contenidos de memoria a la que se llama percepción. El objetivo de ambos procesos es identificar al medio de acuerdo con un modelo de representación interna que permite comprender el significado de imágenes y palabras. El agente realiza también tareas motoras que inciden en el medio, suelen ser acciones de semántica baja o media. El grado de semántica de una señal es proporcional a la capacidad operacional del símbolo que transporta. Entre estas dos familias de tareas (perceptuales y motoras) existe un conjunto intermedio de tareas de decisión que trabajan entre espacios de representación, sin conexión directa con el medio. Incluyen los procesos cognoscitivos asociados al pensamiento y al lenguaje. Para la realización de estas tareas el agente posee un modelo del medio y un conjunto de propósitos y para alcanzar sus metas usa el ‘principio de racionalidad’ (según Newell). El principio de racionalidad no es operacional, es decir, nos dice qué hacer pero no cómo hacerlo. Cada vez que se encuentra un procedimiento efectivo para identificar, capturar y representar de forma computable el conocimiento necesario para la síntesis no trivial de esas tareas de percepción, decisión o planificación motoras tenemos un sistema de IA. El problema de la IA aplicada es pasar del nivel de especificaciones al nivel de componentes. Toda la computación termina en el nivel físico de la electrónica digital. La clave de la Inteligencia Artificial es conseguir C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 programas traductores intermedios que conecten las primitivas de bajo nivel con las del lenguaje de representación cada vez más próximo al lenguaje natural. Los criterios intensionales (por propiedades) permiten distinguir las fronteras de la Inteligencia Artificial con las otras ramas de la computación. Tenemos un problema de Inteligencia Artificial siempre que: No exista una solución analítica o algorítmica conocida. Cuando existiendo esa solución, la explosión combinatoria la haga ineficiente. Cuando el conocimiento necesario es masivo, incompleto, complejo y difícil de representar. Cuando es necesario el aprendizaje y la inyección de conocimiento del dominio. Siempre que abordemos tareas cognoscitivas que usen conocimiento de sentido común. Y tendremos una solución de problemas propia de la inteligencia artificial cuando: Utiliza una estructura de tareas genéricas que permite capturar los aspectos generales del problema y de sus procedimientos de solución de forma que las situaciones individuales se tratan por los métodos asociados a las clases a las que pertenecen. Usa heurísticas que intentan capturar el conocimiento accesible (incompleto e impreciso) del dominio. Separa el conocimiento de su uso en inferencia y hace énfasis en el primero Permite manejar el razonamiento impreciso y temporal Incluye algún tipo de aprendizaje: simbólico o conexionista. Sin aprendizaje no hay inteligencia artificial. Para entender el paso de la computación anatítico-algorítmica a la inteligencia artificial es preciso dar un salto desde el conocimiento que es necesario inyectar desde el exterior del sistema para entender el proceso (pasar del nivel bajo al nivel alto). En el proceso de bajo nivel se pueden describir tres pasos. En el procesado de bajo nivel prácticamente toda la información está en la imagen (para el reconocimiento de imágenes, por ejemplo). El segundo paso es el preproceso que extrae características locales o integrales de naturaleza analítica que no exigen conocimiento complementario para ser entendidos por un observador (descripción complementaria). La etapa final del procesado de bajo nivel es el reconocimiento de formas basado en la definición analítica de distancia entre el valor que toman las propiedades usadas para describir la imagen y los valores correspondientes a esas variables en un conjunto de patrones. En el procesado de alto nivel (percepción), nos hace falta recurrir a la inyección de conocimiento externo del dominio para dar significado a las estructuras de datos y a los procesos (porque su sentido sólo quede claro para quien posee ese conocimiento y en ningún caso es evidente a partir de las entidades del nivel simbólico o del nivel físico en el caso del conexionismo). Ese segundo nivel, de comprensión de imágenes, es responsabilidad de la inteligencia artificial. Conocemos ya algo sobre los límites de la inteligencia artificial por debajo (en su frontera con la analítica y la computación numérica). Veamos ahora su frontera con lo humano. Esos límites pueden encontrarse, al menos, en los siguientes puntos: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 a) Desconocimiento del operador humano. b) Falta de teoría (principios organizacionales y estructuras). c) Diferencias fundamentales entre el nivel físico de la computación semiconductores) y el propio de los seres vivos (tejidos biológicos). (cristales No se puede afirmar que la mente es reducible a computación si no se conoce como funcionan las neuronas biológicas, ni cómo está organizado el cerebro. La metáfora computacional supone que todos los procesos pueden moldearse mediante dos espacios de representación (el de entradas y el de salidas), y un conjunto de reglas de transformación que proyectan configuraciones del espacio de entradas en las configuraciones correspondientes del espacio de salidas. Por otro lado, la inteligencia artificial de síntesis no tiene por qué depender de la comprensión de lo vivo. Es decir, una forma alternativa y eficiente de extender los límites de la inteligencia artificial es desarrollarla como ciencia y tecnología de lo artificial, sin referencia directa con la biología. Entonces deben resolverse, al menos, las siguientes cuestiones: 1. Modelado y representación de tipos de inferencia y de entidades y relaciones propias del dominio usando lenguajes más próximos al lenguaje natural (con su robustez, flexibilidad y capacidad representacional). 2. Búsqueda de nuevos principios de autoorganización capaces de generar estructuras simbólicas robustas y de amplio uso a partir de entradas de información más desorganizadas y fragmentadas. 3. Desarrollo de nuevos lenguajes de programación, tan funcionales como los actuales y, además, que permitan un cierto nivel de autoprogramación y ayuda a la edición de conocimiento. 4. Énfasis en las teorías computacionales del aprendizaje tanto simbólico como conexionista o híbrido. 1.3 Perspectiva histórica de la inteligencia artificial 1.3.1 Etapa neurocibernética La Inteligencia Artificial comenzó a ser computacional cuando Warren S. McCulloch y Walter Pitts introducen el primer modelo formal, formado por una función lógica seguida de un retardo y donde se sustituye la programación por el aprendizaje. Una red de neuronas formales es equivalente a una máquina de Turing de cinta finita. Si la red es programable, entonces es equivalente a una máquina universal. Las ideas básicas de esta época se basan en considerar que los seres vivos y las máquinas pueden ser comprendidas usando los mismos principio de organización y las mismas herramientas formales. La aproximación entre ambos debe realizarse a nivel de procesador, de forma que para estudiar como computa el cerebro, hay que estudiar las neuronas biológicas, modelarlas formalmente, construir redes y ver como surge el comportamiento a partir de procesos locales de autoorganización, memoria asociativa y aprendizaje. Tres trabajos fundacionales del movimiento son: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 - en Conducta, propósito y teleología (de Rosemblueth, Wiener y Bigelow) se introducen tres conceptos importantes en inteligencia artificial: la realimentación como principio organizacional, la computación por propósitos y la idea de información como pura forma, separable de la señal física que la transporta. - en Un cálculo lógico de las ideas inmanentes en la actividad nerviosa (de Warren S. McCulloch y Walter Pitts), sobre redes neuronales formales, se inicia la “Teoría Neuronal Del Conocimiento”; se buscan las redes de procesadores capaces de reconocer, recordar, cooperar, aprender o autoorganizarse. En esta primera etapa de la inteligencia artificial se busca la solución de los problemas a nivel físico (donde estructura y función coinciden). Se inicia la teoría modular de autómatas y se usa la lógica (determinista y probabilística) para representar el conocimiento. - en La naturaleza de la explicación (de K. Craik) se interpreta la actividad del sistema nervioso en términos de un conjunto de procesos encaminados a construir una representación interna del medio (modelo) y usarla para predecir. Craik contribuyó a la moderna inteligencia artificial con dos aportaciones clave: razonamiento abductivo y espacios de representación. La inferencia en inteligencia artificial está asociada al uso individual o combinado de tres tipos de razonamiento: 1. La deducción lógica: Se parte de un conjunto de fórmulas (axiomas o validez general) y sobre ellas se aplican un conjunto de reglas o procedimientos de demostración que nos permiten obtener nuevas fórmulas válidas. Permite pasar de lo general a lo particular con certeza del resultado obtenido. Su punto débil es la necesidad de conocer con precisión el conjunto de axiomas que define el dominio. 2. La inferencia inductiva: Usa pistas (heurísticas) con el conocimiento del dominio para pasar de lo particular a lo general. Nunca podemos garantizar la completitud y certeza de la inferencia en este caso. 3. En el razonamiento abductivo: Trata situaciones en las que se conoce una relación causa efecto y un suceso, y, se debe lanzar una hipótesis sobre su causa más probable. (como en los diagnósticos médicos). Según Craik: “Nuestra pregunta no es qué es implicación o causalidad, sino cuál es la estructura y los procesos necesarios para que un sistema mecánico sea capaz de imitarlos correctamente y predecir sucesos del mundo externo, a la vez que crear nuevas entidades”. El segundo punto de la obra de Craik es la propuesta de un mecanismo de razonamiento por analogía en el modelo del medio donde la implicación formal es el equivalente a la causalidad en el mundo físico. Distinguía Craik tres procesos: A. Traslación de los procesos externos a símbolos en un espacio de representación. B. Obtención de otros símbolos mediante inferencia en el modelo del medio que paraleliza la causalidad externa. C. Retraslación de esos símbolos transformados al dominio de sus referentes externos (predicción). C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La característica fundamental de un Sistema Basado en el Conocimiento (SBC) es su poder para modelar sucesos basados en dos tipos de símbolos: números y palabras. La propuesta de Craik es que la codificación de estos símbolos no es arbitraria, sino que mantiene su identidad desde la entrada sensorial a la salida motora. La Inteligencia Artificial en su primera etapa neurocibernética aborda los siguientes temas: Redes de neuronas formales. Algoritmos de análisis y síntesis. Aprendizaje por ajuste de parámetros. Tolerancia a fallos. Modelos de memoria asociativa. Reconocimiento de caracteres. Aprendizaje asociativo y por refuerzo. Desarrollos en Teoría Modular de Autómatas. Codificación y Teoría de la Información. Principios Organizacionales: Autoprogramación. Autorreproducción. Programas programadores. Traducción automática. Comprensión del Lenguaje Natural 1.3.2 computación: de Platón a Turing Dreyfus sugiere que la inteligencia artificial comenzó alrededor del año 450 a. C. cuando, de acuerdo con Platón, Sócrates pregunta a Euthyphro por un conjunto de reglas de decisión definidas de forma tan precisa que en cada momento pudiéramos calcular la respuesta del sistema aplicando esas reglas a la entrada. Hobbes (1.588-1679) afirma que el pensamiento (razocinio) consiste en ejecutar operaciones simbólicas siguiendo de forma metódica un conjunto de reglas de decisión. Descartes (1.566-1650) descubre el carácter invariante de la matemática para representar el conocimiento. Intenta formalizar el razonamiento usando tres procesos: enumeración, deducción e intuición, siendo este último el más difícil de mecanizar. Leibniz (1.646-1716) introduce el concepto de programa y de programación. Boole (1815-1860) introduce el modelo lógico haciendo énfasis en la separación de símbolos y números y en la posibilidad de usar los primeros como objetos de cálculo. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Un aspecto importante de los desarrollos en Inteligencia Artificial es el de intentar mantener las ventajas del modelo lógico y disminuir los inconvenientes que supone su carácter binario e invariante de sus valores. La lógica borrosa, la probabilística y las extensiones del razonamiento no monótono y temporal son muestra de ello. Con von Neumann se avanza en arquitectura de computadores, teoría modular de autómatas y redes neuronales y teoría del cerebro. Su contribución a la teoría de autómatas y a la inteligencia artificial conexionista no fue sólo a nivel formal, sino que planteó cuestiones fundamentales como son: Reformulando la máquina de Turing en términos de autómatas celulares Autoprogramación (autómatas que diseñan otros autómatas) Autoreproducción y evolución (constructores universales que se reproducen) Tolerancia a fallos y establildad lógica ante cambios de función local Finalmente, llegamos a Turing y sus dos contribuciones básicas: A. Un Modelo Computacional Universal (la máquina de Turing) B. Un Procedimiento Experimental de Medir la Inteligencia Artificial de un Programa (test de Turing) La Máquina de Turing es una máquina matemática, todo proceso que se describe de forma clara, completa, precisa e inequívoca en lenguaje natural puede representarse mediante un autómata. A partir de esta representación se puede encontrar una secuencia de instrucciones que al operar sobre símbolos codificados genera un programa ejecutable en cualquier computador. Desde este punto de vista todas las arquitecturas son equivalentes, y sus diferencias son los factores de complejidad, tamaño, tiempo, eficacia o recursos. El test de Turing parte de un operador humano, un programa de ordenador y un interrogador que realiza un conjunto de preguntas, y compara las respuestas de ambos. Si de la comparación de las respuestas el observador no es capaz de distinguir que información corresponde al operador humano y cual al programa de Inteligencia Artificial, se dice que para esa tarea en ese dominio se supone el mismo nivel de inteligencia a ambos operadores. Moov, modificó el esquema en términos de acumulación de evidencia inductiva, a partir de una serie de críticas, la más fuerte es sobre el carácter conductista del test de Turing. La contestación adecuada a esta crítica es la de considerar el test más que una medida de inteligencia como un procedimiento de recoger y acumular evidencias inductivas acerca de la eficacia del programa para resolver un problema. Esta interpretación inductiva elimina parcialmente la crítica de Searle sobre la diferencia entre el conocimiento superficial (diccionario) y el profundo. Este segundo caso supone que el agente debe comprender el significado del mensaje a nivel semántico generando otro mensaje en otro lenguaje, con el mismo significado, sin referencia a la sintaxis del mensaje de partida. El segundo tipo de crítica hace referencia a la falta de severidad del test. Imitar no es muy complicado y la eficiencia en tareas formales y técnicas para dominios estrechos y modelables no justifica el carácter cognoscitivo (humano) de la computación en Inteligencia Artificial. Toda la C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 información está estructurada, todo el proceso está programado y hay poco lugar para el aprendizaje. La capacidad de aprendizaje de un programa es la siguiente medida importante para evaluar el nivel de Inteligencia Artificial. 1.3.3 búsqueda heurística y dominios formales El primer trabajo fue el programa Logic Theorist que da origen a toda la rama del razonamiento automático que persiste en la inteligencia artificial, reforzado por el principio de resolución de Robinson y sus refinamientos posteriores, incluyendo la creación del lenguaje Prolog. Comienza la preocupación por lenguajes para procesar información más orientados al manejo de símbolos que al cálculo numérico, iniciándose el camino hacia el Lisp. Otro trabajo representativo es el programa GPS (Solucionador General de Programas) con un intento de dotarlo de capacidad de aprendizaje y autoorganización; es un programa que incorpora medios heurísticos para resolver problemas seleccionando una secuencia de operadores que haga disminuir la diferencia entre el estado inicial y el estado meta hasta anularla. Todos los trabajos de esta primera época se centraron en problemas propios de dominios formales, demostración de teoremas, estrategias heurísticas y problemas de juegos, planificación de acciones, etc. En todos los casos la Inteligencia Artificial se entiende como búsqueda en un espacio de estados sin conocimiento del dominio, haciendo énfasis en los métodos de control de la búsqueda. Actualmente se intenta recuperar las propuestas iniciales del GPS, el propósito es separar los aspectos estructurales comunes al procedimiento de solución de una clase general de problemas, del conocimiento específico de una tarea particular. A mediados de los sesenta aparecen cambios en la orientación de la Inteligencia Artificial dando cada vez más importancia al conocimiento del dominio y por consiguiente a los problemas asociados a su representación y posterior uso en inferencia, donde se separan conocimiento y uso del mismo. En esta época se inician los estudios del lenguaje natural, limitando sus dominios, para conseguir un modelo completo de las estructuras y procesos de ese dominio. Aparece la llamada “falacia del primer paso” (Dreyfus) ya que aunque se suponía que todos los programas eran un primer paso para la comprensión del lenguaje natural, nunca llegó el segundo paso, que lo hizo vía los sistemas basados en el conocimiento. McCarthy realizó un trabajo sobre programas con sentido común, donde afirmaba: “podemos decir que un programa tiene sentido común si deduce de forma automática y por si mismo una clase suficientemente amplia de consecuencias inmediatas de cualquier cosa que se le dice y él ya conoce. 1.3.4 Énfasis en el conocimiento (197x-198x) La complejidad de los problemas que aborda la Inteligencia Artificial aconseja combinar todas las técnicas de representación, integrando el simbolismo con las redes neuronales. La segunda idea que caracteriza esta segunda etapa de la Inteligencia Artificial es que no basta con el énfasis del C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 conocimiento sino que además la Inteligencia Artificial de síntesis (ingeniería) debe centrarse en tareas científico - técnicas en dominios estrechos donde se pueda abarcar el conocimiento de forma completa y sin influencia del sentido común. Se habla así de motivación inteligente, clasificación basada en el conocimiento, consejeros de terapia médica, sistemas de supervisión y detección de alarmas, etc. El nacimiento de los Sistemas Basados en el Conocimiento y los Sistemas Expertos ocurre en una época dominada por dos preocupaciones: (a) Énfasis en la representación computacional del conocimiento para tareas del mundo real. El conocimiento específico del dominio es poder. (b) Selección de tareas técnicas en dominios estrechos (Sistemas Expertos), donde se separa el conocimiento de sus mecanismos de aplicación (inferencia). 1.3.4.1 representación del conocimiento El problema de la representación del conocimiento sigue abierto tanto en la Inteligencia Artificial teórica, (¿qué es?, relación entre el conocer y la estructura de lo que se conoce) como en la Inteligencia Artificial de síntesis (¿qué representación es mejor?, ¿cuál permite un uso eficiente del conocimiento?, ¿cómo abordar la semántica?, ¿cómo profundizar el razonamiento?). La conclusión de esta etapa es una propuesta de representación modular e híbrida que incluye aspectos de los cuatro procedimiento básicos: lógica, reglas, redes asociativas y marcos (objetos estructurados). En esta época se considera al conocimiento como ‘algo’ transportable desde la cabeza del experto humano a la memoria del computador. La visión actual considera el problema de la representación formal del conocimiento como un proceso de modelado o de reconstrucción de lo que se supone que sabe el experto humano, estructurado en varios niveles. El uso de la lógica para representar el conocimiento tiene como ventajas la semántica, expresividad y la eficacia de sus procesos deductivos. Sus inconvenientes provienen de la falta de estructuración del problema de la completitud y de la existencia de problemas en los que la conclusión se obtiene por defecto, sin garantizar que los resultados son ciertos. Esta ruptura de la monotonía (suposición usual en lógica) ha dado origen a la búsqueda de nuevos formalismos para el razonamiento no monótono, que junto al aproximado, el temporal y el cualitativo han dado lugar la estado actual de las investigaciones. Para intentar solucionar el problema de la ineficiencia de las representaciones lógicas surgen las representaciones basadas en reglas, sacrificando expresividad por eficiencia. Estos sistemas aportan un nuevo paradigma de programación. Parten de la idea de que todo el conocimiento relevante para realizar una tarea puede representarse mediante un conjunto de condicionales. El resultado de aplicar la regla produce nuevos hechos y activa otras reglas, de forma que el razonamiento está asociado a ese encadenamiento de reglas. Las redes semánticas (Ros Quillian) son un modelo de memoria asociativa adecuado para la representación computacional del conocimiento necesario para la comprensión y traducción del lenguaje natural. Selts (1.922) en su teoría de la anticipación esquemática propuso una organización C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 relacional del conocimiento en términos de redes de conceptos (nodos) enlazados por relaciones (arcos) y con herencia de propiedades. Quillian retomó esta línea; la base de conocimientos en una gran red de nodos (significado de palabras) interconectadas por diferentes tipos de arcos asociativos. Las redes asociativas engloban a las redes semánticas, siendo estas últimas un caso particular que hace referencia a su origen, como forma de representar el significado (semántica) de las palabras en lenguajes naturales. Las tres características que distinguen los distintos tipos de redes son: (I) (II) (III) • Tipo de conocimiento representado. • Método de inferencia. • Forma de abordar el problema del aprendizaje. Los marcos (Minsky) como forma de representación del conocimiento suponen que el sistema nervioso organiza su experiencia perceptiva y su memoria en términos de un conjunto de esquemas que describen de forma estructurada nuestro conocimiento sobre un conjunto de situaciones reales, de forma que al usarlos para razonar se acepta gran cantidad de conocimiento implícito con el que se rellenan los campos que quedan sin especificar. Una característica importante de los marcos es su ordenación jerárquica, los marcos-nodo inferiores no sólo heredan las propiedades de sus superiores sino que pueden heredar también valores y métodos asociados a estas propiedades. Los guiones y planes son análogos a los marcos, sólo que hacen referencia a estructuras que describen secuencias temporales de sucesos. El ser humano organiza su conocimiento en términos de millones de marcos, guiones y planos que usa constantemente en todas sus tareas(Schank, Minsky). Los avances desde 1.980 hasta nuestros días se resumen en los siguientes puntos: Mayor rigor en los desarrollos teóricos. Énfasis en las representaciones declarativas frente a las procedimentales. Intento de formalización e integración de los distintos tipos de razonamiento. Se camina hacia una teoría unificada del conocimiento. Renacimiento del conexionismo y surgimiento de las redes bayesianas. Manejo de grandes bases de conocimiento, lo que exige el desarrollo de métodos automáticos de adquisición y actualización (aprendizaje). 1.3.4.2 sistemas basados en el conocimiento (SBC) y sistemas expertos (SE) Cuando en un sistema se hace uso intensivo del conocimento del dominio y se separa de los mecanismos que controlan su uso en inferencia, decimos que tenemos un SBC. Dentro de un SBC hay un grupo de sistemas en los que el conocimiento procede de un experto humano especialista en una tarea concreta y un dominio técnico; decimos entonces que tenemos un SE. El desarrollo de los métodos básicos de representación del conocimiento ha caminado paralelo al desarrollo de los sistemas expertos. Cada forma de representación está asociada históricamente al primer sistema que la usó. Las características fundamentales de un SE son: Dominio reducido C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Competencia en su campo Separación conocimiento/inferencia Capacidad de explicación Flexibilidad en el diálogo Tratamiento de la incertidumbre En la primera época los módulos básicos de un S.E. eran la base de hechos ciertos, la base de conocimientos, el mecanismo de inferencia, una base de datos convencional y un módulo de explicación y diálogo (esquema que corresponde a un sistema basado en reglas). Si la representación del conocimiento se hace usando marcos o redes semánticas, la estructura no se corresponde claramente con estos módulos. Una conclusión importante de esta etapa de la Inteligencia Artificial es que los sistemas basados en reglas constituyen un procedimiento efectivo de representación y uso del conocimiento distinto de la programación convencional. La computación se realiza identificando y aplicando la regla adecuada a un hecho. Después, se estudia si como consecuencia de la aplicación, se ha resuelto el problema, y en caso contrario, buscar una nueva regla cuyo campo de condición se adapta al campo de acción de la anterior. Como consecuencia se altera el contenido de la memoria dinámica del sistema. Esta forma de programar supone dos cambios esenciales: • Todo conocimiento debe representarse de forma modular y declarativa. • En el modelado se debe cuidar el contenido asignado a los campos de condición y acción de cada regla porque ahí se construye el conocimiento que guiará el encadenamiento de las reglas. En mitad de los sesenta, los resultados de los trabajos de Stanford mostraron las características básicas en todos los SE: 1. Selección de un dominio limitado del conocimiento científico-técnico (el programa alcanza niveles de competencia a los del experto humano) 2. Evidencia de que el conocimiento esencial no es de carácter general sino específico del dominio. 3. Separación entre el conocimiento y el mecanismo de aplicación de ese conocimiento (inferencia) con la posibilidad de ampliar o modificar el conocimiento que posee el sistema, sin tener que modificar los mecanismos de inferencia. 4. Validez de las reglas como forma de representación del conocimiento, sin necesidad de modelar el proceso de pensamiento del experto humano. Y a partir de otro trabajo: 5. Validez del razonamiento por encadenamiento de reglas. 6. Tratamiento del problema de la incertidumbre mediante mecanismos sencillos y eficientes que combinan distintos factores de certeza. 7. Capacidad de explicación del razonamiento seguido para alcanzar la meta que propone. 8. Mención de conceptos que se consolidaron más tarde, tales como la metarreglas (reglas que explican como utilizar otras reglas) y la adquisición de conocimiento como tarea genérica en inteligencia artificial. Las metarreglas se introducen con tres fines: construir la base de conocimientos mediante un diálogo con el experto humano, guiar el razonamiento C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 mediante objetivos explícitos y mejorar la capacidad de explicación a partir de dichos objetivos. En la actualidad las tendencias en el campo de los SE son: Desarrollos de SE con una metodología razonablemente establecida, usando entornos comerciales y aceptando los métodos usuales de representación e inferencia. Desarrollos teóricos en temas frontera relacionados con la extensión de los métodos de representación y razonamiento. Énfasis en el aprendizaje y renacimiento del conexionismo. 1.3.5 aprendizaje y renacimiento del conexionismo 1.3.5.1 aprendizaje La idea más general de aprendizaje es la acumulación de conocimiento. Por consiguiente, un programa aprende cuando es capaz de acumular conocimiento sobre una tarea. Bajo el nombre de aprendizaje, se engloban procesos muy diversos que podemos clasificar en términos de la tarea genérica a la que se refiere y del mecanismo de razonamiento en el que se basa. Hay tres familias de tareas: 1. Tareas perceptivas: Incluye aspectos tales como el reconocimiento de caracteres y la formación de conceptos (selección de características para describir los objetos de entrada, creación de un lenguaje de descripción de conceptos y representación simbólica de todo el conocimiento previo). 2. Tareas de planificación: Incluye los aspectos complementarios de la percepción. Ahora en vez de clasificar, se parte de conceptos centrales en un modelo del medio y se programa un generador de acciones elementales. 3. Tareas de organización central: Incluye aspectos tales como la adquisición automática de nuevo conocimiento declarativo y su integración en una organización interna. Si consideramos ahora el aprendizaje como el cambio en los mecanismos de razonamiento, hay tres paradigmas básicos: 1. El aprendizaje inductivo: En él, los cambios en las estructuras de datos y en los algoritmos van encaminados a la generalización del conocimiento extraible de los ejemplos usados en el entrenamiento. Ese proceso está guiado por criterios heurísticos. Si se dispone de mucho conocimiento del dominio no es necesario mucho entrenamiento, se tiene una estrategia de aprendizaje basado en casos (CBL). 2. El aprendizaje deductivo: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Está asociado a situaciones en las que se dispone de un conocimiento general bastante completo y unas reglas de inferencia para obtener casos bajo la ley y explicar el proceso deductivo. Al tener que encontrar teorías completas se debe complementar con otras estrategias inductivas o abductivas. 3. El aprendizaje abductivo: Busca un procedimiento para proponer y seleccionar las hipótesis que mejor expliquen las conclusiones conocidas. El estado actual del aprendizaje computacional está marcado por dos tendencias complementarias: Desarrollo de sistemas multiestrategia, basados en la comprensión de las funcionalidades y las condiciones de aplicación de las distintas estrategias individuales y en la cooperación de estas en función del tipo de problema. Desarrollos teóricos y metodológicos distinguiendo entre las funcionalidades en el dominio propio y en el del observador y proponiendo un nivel de procesos comunes en términos de los que las distintas estrategias son equivalentes. 1.3.5.2 conexionismo El salto cualitativo en la perspectiva conexionista de la inteligencia artificial aparece al comienzo de los años 80 con las propuestas de Rumlhart y colaboradores [1986] y Barto [1983]. En la inteligencia artificial conexionista se está intentando resolver los mismos problemas que han preocupado a la inteligencia artificial simbólica. El contenido en extenso de la inteligencia artificial conexionista aborda los siguientes temas: 1. Conexiones con la neurociencia. 2. Modelos de computación distribuida y autoprogramable. 3. Búsqueda de arquitecturas multicapa e incrementales y genéticas que faciliten la cooperación y la autoorganización. 4. Estudio del aprendizaje supervisado y no supervisado y su conexión con el aprendizaje simbólico. 5. Desarrollo de neurosimuladores (entornos de programación, evaluación y desarrollo de redes neuronales a nivel software). 6. Implementación de redes como arquitecturas paralelas (preprocesadores, coprocesadores o neuro-circuitos completos). de propósito especial 7. Un gran capítulo de aplicaciones, en percepción y control, y problemas genéricos de clasificación en tiempo real. Como conclusión decir que ambas perspectivas (simbólica y conexionista) han reconocido sus limitaciones y han decidido cooperar buscando formulaciones híbridas de tareas genéricas y C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 soluciones cooperativas que usan ambos métodos tomando de cada uno lo más adecuado para la solución del problema. 2. ASPECTOS METODOLÓGICOS EN LA INTELIGENCIA ARTIFICIAL 2.1 Niveles de computación. Cuando nos enfrentamos a un sistema complejo, tanto en tareas de análisis como de síntesis, es útil usar una jerarquía de niveles, que nos permitan segmentar esa complejidad. Cada nivel de descripción, está caracterizado por una fenomenología, un conjunto de entidades y relaciones y unos principios organizativos y estructurales propios. (Por ejemplo, en biología, se puede pasar del nivel protoplásmico <subcelular con procesos físicoquímicos>, al celular <bioquímico-eléctrico>, al orgánico y al de comportamiento global <animal y humano>). Es un error frecuente en IA, el mezclar entidades pertenecientes a niveles distintos, e intentar explicar datos y procesos de un nivel de alta semántica, como el nivel de conocimiento, a partir de estructuras de datos y operadores lógicos propios de niveles inferiores, tales como la electrónica digital o la teoría de autómatas. Cada nivel enlaza con el inferior mediante un proceso de reducción de acuerdo con unas leyes (programas traductores, intérpretes, compiladores), y con el superior mediante procesos de emergencia, que necesitan la inyección de conocimiento por parte de un observador externo. Por ejemplo: del conocimiento detallado del comportamiento de los inversores y biestables, no se deduce el algoritmo ni las estructuras de datos del programa que está corriendo. Análogamente, no se deduce el funcionamiento de los biestables conociendo el algoritmo utilizado. Hay varios algoritmos posibles para una misma computación y hay múltiples implementaciones posibles para un algoritmo. La teoría de niveles en la computación fue introducida por D. Marr y A. Newell, previamente Chomsky introdujo los conceptos de competencia y ejecución para distinguir los lenguajes naturales de los sistemas arbitrarios y formales de manipulación de símbolos. Todo nivel de computación admite una representación general en términos de un espacio de entradas, un espacio de salidas y un conjunto de reglas de transformación que enlazan las representaciones en ambos espacios de representación. El espacio de entradas en un espacio multidimensional de las características del proceso que se consideran relevante. El espacio de salidas también es multidimensional, en el que se seleccionan los resultados de la computación en función del tiempo, las entradas y reglas de transformación del proceso de este nivel. La computación de un nivel se completa con las descripciones de las transformaciones que producen nuevos valores en el espacio de salidas a partir de la secuencia de valores previos en ambos sentidos. Los tres niveles de computación que propone Marr comienzan a tener una clara comprensión de lo que se debe calcular y como se debe hacer. No basta pues, el conocimiento de la computación a nivel de procesador, ni el nivel de algoritmos y estructura de datos, debe existir un nivel adicional de comprensión que analice y comprenda los mecanismos y estructuras particulares que se implementan en nuestros cerebros. Sustituyendo cerebro por computador se tiene cómo analizar o C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 sintetizar una tarea computacional. Veamos los tres niveles de computación, tal como los propuso David Marr en 1982: 1. En el primer nivel tenemos los fundamentos teóricos de la computación, el planteamiento del problema en lenguaje natural y un posible esquema de solución en términos del conocimiento del dominio. 2. El segundo nivel de análisis o síntesis de un proceso es la elección de un lenguaje de representación para los espacios de entrada y salida y de un algoritmo que haga efectivas las transformaciones que enlazan esas representaciones. 3. El tercer nivel tiene que ver con todo el proceso de implementación que nos lleva del algoritmo a los procesadores físicos. Incluye la selección de un lenguaje de programación y la construcción del programa. Para una tarea concreta, los tres niveles de descripción están relacionados. Cuando se baja de nivel siempre se pierde información, ya que no hay una representación única de ese nivel. La hipótesis fuerte de la Inteligencia Artificial es que a pesar de estas pérdidas de semántica es posible hacer computacional la inteligencia humana. 2.2 El Nivel de Conocimiento de Allen Newell. Newell introdujo en 1981 el nivel de conocimiento como un nuevo nivel de descripción por encima del nivel simbólico. La clave del nivel es su carácter abstracto, genérico e independiente tanto del dominio como de los lenguajes usados para representar el conocimiento (marcos, reglas, lógica o redes) y para usarlo (inducción, deducción o abducción). Pylyshyn ha asociado el nivel de conocimiento al cálculo intencional y Clancey señaló el carácter relativista de las descripciones en el nivel de conocimiento. Una computación intencional (a nivel de conocimiento) es invariante ante cambios en la representación a nivel simbólico, de la misma forma que una computación a nivel simbólico es invariante ante cambios en el nivel de implementación.. En el trabajo de Newell se plantean tres objetivos: 1. Razonar acerca de la naturaleza del conocimiento. El esfuerzo de Newell se centra en distinguir el conocimiento de sus posibles representaciones, y dotar al primero de entidad propia. 2. Proponer la existencia de un nivel específico del conocimiento cuyas entidades básicas son las creencias, objetivos, planes e intenciones y el principio de racionalidad, que conecta causalmente las intenciones con las acciones. 3. La descripción de este nivel y sus conexiones con los niveles inferiores (simbólico y de implementación). Así, Newell propone un nuevo nivel (el nivel de conocimiento) situado sobre el nivel simbólico y caracterizado por el conocimiento como medio y el principio de racionalidad como ley general de comportamiento. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Para poner este nivel en relación con los otros (simbólico y de implementación) se introducen cinco aspectos para caracterizar los niveles: sistema, medio, componentes, leyes de composición y leyes de comportamiento. SISTEMA NIVEL de Agente CONOCIMIEN Inteligente TO NIVEL SIMBOLICO Visión del programador de ordenador NIVEL DE IMPLEMEN TACIÓN E. Digital + Arquitectura de Computadore s LEYES DE COMPONEN OPERADORES COMPORTA TES MIENTO Metas Los usados por Principio de Conocimiento Acciones el lenguaje racionalidad. Intenciones natural Operadores y Símbolos y memorias Designación Interpretació expresiones (Primitivas Asociación n fija del lenguaje) Vectores Registros Booleanos y ALU’s Algebra de Teoría de Estados Decodificador Boole Autómatas lógicos de es de puertas Instrucciones MEDIO El principio de racionalidad o principio de causalidad semántica dice: • Si un agente conoce que una de sus acciones conducirá a sus metas, entonces seleccionará esta acción. • Conocimiento es cualquier cosa que se pueda adscribir a un agente de forma que su conducta se puede calcular usando el principio de racionalidad. Desde la perspectiva de la Inteligencia Artificial aplicada, el problema es encontrar un procedimiento para reducir el nivel de conocimiento al nivel simbólico. Es decir, pasar de las descripciones en lenguaje natural a un lenguaje accesible al nivel simbólico, donde el principio de racionalidad, las metas, las creencias y las acciones se proyectan en estructuras de datos y algoritmos. Para facilitar el proceso de reducción se están buscando entidades de nivel intermedio como la teoría de agentes cooperativos (descomposición, segmentación y especialización), las estructura de las tareas genéricas y la metodología KADS entre otras. 2.3 El agente observador y los dos dominios de descripción. La introducción de la figura del observador proviene de la física, al reconocer la existencia del mismo en la computación se introduce la idea de distintos sistemas de referencia. Las descripciones de las observaciones de una computación a nivel físico o simbólico deben de hacerse en dos sistemas de referencia, uno para cada nivel. Al dominio que los engloba se le denomina dominio propio (DP) o autocontenido. El otro dominio es el dominio del observador (DO) que usa el lenguaje natural para describir y dotar el significado de los procesos del dominio propio. En las descripciones de dominio propio todo lo que ocurre el causal, y las relaciones son de necesidad, es decir, lo que ocurre es porque la estructura y función coinciden y las conexiones entre las magnitudes siguen sus leyes propias. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Por otro lado, el observador siempre actúa a nivel de conocimiento. Su lenguaje es el lenguaje natural y su función de diseño e interpretación de la computación (niveles físico y simbólico) está caracterizada por su modelo del conocimiento, por las limitaciones de los otros dos niveles y por la inyección de conocimiento necesaria para recuperar en la interpretación todo lo que se perdió en el proceso de reducción de niveles. En el DO siempre hay más conocimiento del que se puede deducir de la sola consideración del contenido de los otros dos niveles. Cuando la computación es realizada por un ordenador a través de un programa, el problema está en mezclar entidades y relaciones de DP con otras del sistema operativo (con las que no tienen ninguna relación causal). El problema importante en inteligencia artificial aparece cuando se mezclan las tablas de semántica de ambos dominios y se pretende dar significados de entidades propias del nivel de conocimiento en DO a las entidades de los otros dos niveles (DP). En el DP se pueden distinguir tres capas. La más profunda está relacionada con la estructura de tareas genéricas y con la arquitectura global del sistema e incluye el conocimiento estratégico. En la capa intermedia se encuentran las herramientas y los métodos (conjunto de formalismos de representación y mecanismos de inferencia). La tercera capa, la más externa en el DO, incluye la arquitectura global de la tarea, los aspectos organizativos del modelo, los mecanismos de adquisición del conocimiento del dominio, la segmentación en distintos agentes cooperantes y la asignación de tareas a esos agentes y, finalmente, la construcción de las tablas de semántica que se volverán a usar en la interpretación del nivel simbólico. 2.4 Estructura de Tareas Genéricas para Modelar Conocimiento en el DO. Para facilitar el proceso de adquisición de conocimiento y su posterior reducción al nivel simbólico (inferencia y representación) se han intentado desarrollar métodos abstractos de modelar conocimiento en términos de un conjunto de tareas genéricas (TG) y métodos (M) para desarrollarlas. Al ser estas TG de validez general nos permiten modelar el conocimiento de forma análoga a como lo hace la teoría de sistemas continuos. En cada caso, los métodos, las formas de representar el conocimiento y los mecanismos de inferencia variarán, pero la organización de la tarea permanece. Su esquema conceptual es el mismo. Así, las tareas genéricas son bloques funcionales que participan en la solución de una familia amplia de problemas. En un sistema de control las TG son: comparación, amplificación, actuación y medida y la estructura de TG es la realimentación negativa. En inteligencia artificial veremos que las tareas genéricas son la clasificación jerárquica y heurística, el diagnóstico, la monitorización, el diseño, etc, y los métodos son heurísticos. En el análisis modelamos un segmento del razonamiento humano especificando lo que debe hacer el sistema. En síntesis, proponemos una solución estructurada diciendo cómo debe resolverse el problema usando un conjunto muy limitado de módulos genéricos (TG) cada uno de los cuales se concentra en un aspecto particular del proceso de solución. 2.4.1 La clasificación como Tarea Genérica. Muchos de los programas de inteligencia artificial, están basados en la estructura genérica de un clasificador que asocia configuraciones de entrada a configuraciones de salida. Las entradas son C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 datos mientras que las salidas son configuraciones que representan decisiones, posibles fallos del sistema o conceptos seleccionados. Ambos espacios deben estar especificados en extenso y de forma completa porque la clasificación ordena las categorías de salida y/o selecciona una de ellas. Los métodos usados dependen del tipo de clasificación. Así, en la clasificación jerárquica el método suele ser establecer y refinar. En la clasificación heurística, el método es la comparación a nivel abstracto y en la clasificación conexionista, el método es el ajuste de parámetros mediante la minimización de una función de coste. Clancey introdujo la clasificación heurística como tarea genérica subyacente a muchos sistemas expertos y sugirió su descomposición en tres subtareas: (1) La abstracción de los datos permite separar el valor numérico de una variable del módulo de conocimiento asociado de forma implícita. Por ejemplo que un valor de temperatura es alto. (2) La equiparación heurística permite de nuevo buscar asociaciones entre tipos generales de síntomas y tipos de patologías. Así, la alta temperatura indica fiebre y está asociada a infección. (3) El refinamiento está asociado al resto del conocimiento necesario para especificar el diagnóstico. La clasificación conexionista usa en general el conocimiento del problema para definir en una estructura con cuatro tareas genéricas, distribuidas por capas: (1) Extracción de propiedades: comienza con la construcción de un espacio de características (analíticas, algorítmicas o puramente simbólicas) con una parte fija y otra autoprogramable por aprendizaje. (2) Métricas: incorpora las métricas asociadas a las clases de equivalencia (calcular la proximidad de cada punto del espacio de características a cada una de las clases). (3) Selección de máximos: es la selección de la clase a la que la distancia es mínima o el cálculo de la función de pertenencia de ese punto del espacio de medida a las distintas clases en las formulaciones borrosas. (4) Refuerzo: es la última TG del clasificador y es el aprendizaje. 2.4.2 La Metodología KADS. La metodología KADS para el desarrollo de sistemas basados en el conocimiento se apoya en el nivel de las tareas genéricas y en la distinción de cuatro capas: estrategia, tareas, inferencia y conocimiento estático del dominio, para modelar el conocimiento. El proceso comienza con el análisis a nivel global, que permite una descomposición del problema en tres módulos: el módulo basado en el conocimiento, la interfaz y el resto de la aplicación. La siguiente etapa modela la inferencia, está relacionada con las técnicas de representación del conocimiento estático. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La tercera etapa contiene la estructura de tarea genérica. La capa más externa se usa para modelar los aspectos estratégicos del conocimiento. El uso de una estructura de tarea genérica para modelar conocimiento tiene la ventaja de ser modular, planteando la existencia de primitivas de computación, a partir de las cuales se puede modelar y sintetizar el conocimiento. 2.5 IA simbólico VERSUS IA conexionista Hay que poner de manifiesto su complementariedad y su significado en la teoría de los dos dominios (DP y DO). La inteligencia artificial que nació conexionista, fue después dominantemente simbólica y tras el renacimiento de la computación neuronal hemos llegado a una etapa de cooperación alternativa entre ambos, dependiendo de la naturaleza del problema, como dos técnicas complementarias y en algunos casos simbióticas. El simbolismo nace en el dominio del observador durante el proceso de reducción del nivel de conocimiento al nivel simbólico y en el proceso inverso de interpretación. Cuando la reducción se hace a través del nivel simbólico, terminando en las primitivas de un lenguaje, la inteligencia artificial es simbólica. En cambio, cuando la reducción se hace directamente del nivel de conocimiento a la red de procesadores la inteligencia artificial es conexionista. Una primera distinción entre IA simbólica e IA conexionista está en el salto directo que las redes neuronales dan desde la formulación del problema a nivel de conocimiento hasta el nivel físico, lo que supone un análisis pormenorizado de la aplicación. Como alternativa a este paso directo, la IA simbólica utiliza un conjunto de entornos y lenguajes de alto nivel que facilitan la reducción al nivel simbólico de un modelo de conocimiento. Otra distinción importante entre inteligencia artificial simbólica y conexionista es la riqueza de tareas genéricas y tipos de inferencia que ofrece la primera, frente a las limitaciones de una arquitectura por capas que siempre realiza una función de clasificación. NIVEL 3: Implementación en un soporte físico del nivel 2 (entornos software y nivel hardware) NIVEL 2: Representación y algoritmo. ¿Cómo puede implementarse esta teoría de cálculo? (Espacios simbólicos de representación de las entradas y salidas y algoritmos que los enlazan). NIVEL 1: Teoría computacional de la tarea a nivel genérico incluyendo cuál es el objetivo de la computación, por qué es apropiado y cuál es la lógica de la estrategia adecuada para implementarlo. Una forma de aproximar las redes neuronales a la computación simbólica es aumentar la capacidad de computación local, superando las limitaciones de un modelo analítico no lineal mediante el uso de un condicional o de un micro-marco con un campo de inferencia. En estas condiciones es posible hablar de sistemas expertos conexionistas y redes neuronales basadas en el conocimiento. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 3. LOS SISTEMAS EXPERTOS Por último, para terminar esta perspectiva histórica de la inteligencia artificial, comentaremos las características principales de los sistemas expertos, que son la parte más novedosa de esta disciplina. Un sistema experto es un programa de ordenador que codifica un modelo de conocimiento de un experto humano en un campo reducido. Un Sistema Experto empieza con un modelo conceptual a nivel de conocimiento y termina en una implementación, tras una etapa de codificación. La arquitectura de un sistema experto de la primera época es de hecho la de un sistema basado en reglas. Con el uso de los marcos y las reglas aparecen dudas en la distinción entre conocimiento estático y dinámico. La introducción de los Sistemas Expertos supuso cambios esenciales en la Inteligencia Artificial: (a) Abordar directamente la complejidad del mundo real, con tareas de diagnóstico y planificación en dominios científico-técnico de extensión limitada. (b) Aceptar que hay que modelar el conocimiento humano no analítico y hacer énfasis en la representación de ese conocimiento de forma separada del uso del mismo en inferencia. (c) Comprobar que, mecanismos sencillos de inferencia tales como el encadenamiento de reglas, eran capaces de resolver satisfactoriamente problemas complejos en dominios reales, tales como el diagnóstico médico. Los pasos necesarios para realizar un Sistema Experto son: • Ver en qué tareas y escenarios es necesario utilizar Sistemas Expertos. • Adquirir el conocimiento de los expertos humanos que realizan la tarea. • Modelar ese conocimiento. • Usar entornos de desarrollo para obtener prototipos. • Validar el funcionamiento de los prototipos y evaluarlos, facilitando la posterior actualización del conocimiento. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Sistema de Adquisición Automática de conocimiento Base de Afirmaciones Base de conocimiento MAC Módulo de Explicación usuario Módulo de Aprendizaje Interfaz de ENTORNO DE DESARROLLO Interfaz de desarrollo 3.1 Estructura básica Profesional que desarrolla el SE Usuario Final El diagrama hace referencia esencialmente a los sistemas basados en reglas. En los sistemas basados en marcos y en redes no es posible establecer la distinción entre base de conocimiento y base de afirmaciones Base de datos La estructura básica de un sistema experto consta de los siguientes elementos: (1) La base de conocimiento (BC): es estática y contiene la representación modular y computable de aquellos fragmentos de conocimiento que hemos sido capaces de modelar y representar a través del diálogo con el experto humano que realiza la tarea para la que ahora queremos desarrollar un sistema experto. La BC de todo sistema experto estará compuesta por un conjunto de reglas o marcos o por una combinación de ambos. En sistemas híbridos (simbólico-conexionistas) la BC puede incluir también una red neuronal. (2) Los mecanismos de Aplicación del Conocimiento (MAC): dependen de la aplicación y de la forma de representación del conocimiento. Si el conocimiento se representa sólo con reglas, la inferencia se realiza seleccionando reglas que se van a ejecutar después. El encadenamiento puede ser dirigido por datos (hacia delante) o dirigido por hipótesis (hacia detrás). Si el conocimiento está representado usando marcos, la BC estará organizada en una jerarquía para las distintas clases de objetos estructurados necesarias en la aplicación. La inferencia ahora está basada en la herencia directa y por defecto, el enlace dinámico mediante reglas en ciertos campos de los marcos y otros procesos de control de la inferencia y de solución de conflictos, tales como las agendas. (3) La base de afirmaciones o conjunto de hechos ciertos (BA) es dinámica. Es una memoria de trabajo donde el mecanismo de inferencia (MAC) almacena las conclusiones transitorias que va obteniendo y donde, a su vez, busca las premisas que le permiten obtener otras nuevas. El contenido de la BA es distinto para cada consulta que se realiza. Lo que hacen los hechos ciertos de la BA es activar determinados módulos de conocimiento en los que podrían estar involucrados, haciéndolos explícitos y produciendo C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 nuevos hechos que, aunque estaban implícitos en la BC, sólo ahora aparecen activos, como consecuencia de los hechos de entrada. (4) La interfaz de usuario de la cual depende a menudo la aceptación o el rechazo de un programa. Debe ser potente, fácil de manejar y de uso agradable. Su especificación funcional y diseño final están asociados al entorno de desarrollo usado y a las facilidades de explicación y edición de conocimiento de las que se quiera dotar al sistema. (5) Se incluye en general una base de datos (BD), en el sentido convencional del término, para almacenar y recuperar de forma eficiente la información adicional propia de cada aplicación y no incluida ni en la BA ni en la BC. Además de estos componentes que se encuentran en todos los Sistemas Expertos, hay tres elementos más que están incluidos en algunos casos. Son el Módulo de Explicación (ME), el Módulo de Aprendizaje (MA) y el Módulo de Adquisición de Conocimiento (AC). Este esquema es utilizado básicamente con reglas; en los sistemas basados en marcos y redes, existe una separación entre inferencia y conocimiento, pero la información del dominio y las conclusiones obtenidas se almacenan en los marcos o en los nodos y enlaces de la red, por lo cual no se puede distinguir entre la Base de Conocimientos y la Base de Afirmaciones. 3.2 Características de un Sistema Experto Cuando se termina la fase de desarrollo, tenemos efectivamente un programa, junto con la codificación del conocimiento cuya semántica se ha quedado en el dominio del observador. Como tal programa posee, al menos, las siguientes características distintivas: Competencia en su campo: es el significado de experto. Es necesario que pueda resolver problemas con una eficiencia y calidad comparables a las de un experto humano. Dominio reducido: ésta es la nota distintiva de los sistemas expertos frente a otros programas de inteligencia artificial. El limitarse a un dominio reducido es un requisito para alcanzar la competencia. Capacidad de explicación: es la capacidad de explicar cómo ha resuelto el problema, es decir, qué método ha aplicado y por qué lo ha aplicado. Un SE debe ser capaz de explicar al usuario el proceso de razonamiento empleado. Los resultados en este apartado son modestos y dependen de los avances en el campo del aprendizaje simbólico. Tratamiento de la incertidumbre: es una exigencia que se deriva de la complejidad de los problemas que van a aborda los sistemas expertos. Flexibilidad en el diálogo: es deseable que los sistemas expertos tengan esta capacidad, llegando en la medida de lo posible a comunicarse (entender y expresarse) en lenguaje natural como un experto humano. Representación explícita del conocimiento: es necesaria para considerar que un sistema está basado en conocimiento. Todo programa de ordenador se basa en el conocimiento de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 problema a tratar, pero en este caso queremos decir que la finalidad del programa es representar explícitamente el conocimiento. 3.3 Ventajas y Limitaciones Podemos afirmar que las ventajas de los sistemas expertos son las siguientes: Permanencia: los expertos humanos pueden morir, cambiar de empresa o perder facultades lo que no puede ocurrir con un sistema experto. Duplicación: el experto humano se encuentra en un único lugar físico y es irreproducible, mientras que una vez construido un sistema experto, podemos fabricar un número ilimitado de copias destinadas a todos los lugares donde sean necesarias. Fiabilidad: un sistema experto responderá siempre de la misma manera ante un cierto problema, mientras que un experto humano puede estar condicionado por factores emocionales, prejuicios personales, tensión, fatiga, etc. Rapidez: El experto humano será rápido en los casos habituales, pero no en los casos más raros. En cambio el SE será rápido en todos los casos. Bajo coste: aunque puede resultar caro inicialmente construir un sistema experto, una vez construido produce grandes beneficios. En contrapartida los sistemas expertos presentan también grandes carencial frente a los seres humanos: Sentido común: para un ordenador no hay nada obvio. Un SE carece de esta característica. Puede sacar conclusiones absurdas. Flexibilidad: El experto humano es flexible y puede adaptarse a las nuevas circunstancias, situaciones inesperadas, buscando nuevas soluciones. Los SE son rígidos. Lenguaje natural: todavía estamos muy lejos de tener un sistema que pueda formular preguntas flexibles y mantener una conversación informal con un usuario o con un paciente. Experiencia sensorial: los sistemas expertos de la actualidad se limitan a recibir información mediante un teclado y un ratón. Sólo algunos disponen de tratamiento de imágenes, y es incomparable con la capacidad de visión humana. Lo mismo puede decirse de la capacidad auditiva, táctil y olfativa. Perspectiva global: un experto humano es capaz de detectar inmediatamente cuáles son las cuestiones centrales y cuáles son secundarias (separando los datos relevantes de los detalles insignificantes). Además existen estas otras limitaciones: Falta de capacidad de aprendizaje: los expertos humanos son capaces de aprender de la experiencia, por caminos que aún no pueden ser modelados. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Capacidad de manejar conocimiento no estructurado: el experto humano organiza y usa la información y el conocimiento presentados de forma poco ordenada. Funciones genuinamente humanas: por ejemplo, todo lo relacionado con el lenguaje natural, la formación de conceptos, el conocimiento de sentido común y la creación queda fuera de los sistemas expertos, al menos en el estado actual del conocimiento. Por tanto, y en la actualidad, la idea de sustituir al humano por la máquina es aún irrealizable. Aunque el objetivo principal no es que la máquina duplique o sustituya al humano sino que colabore con él. Bibliografía: ABELSON, H. y SUSSMAN, G. J.: Structure and Interpretation of Computer Programs. MIT Press (1985). BARR, A. y FEIGENBAUM, E. A. (1982): The Handbook of Artificial Intelligence. Vols. I y II. Pitman Books Limited. CA. El volumen III es de la misma Editorial pero está editado por P. R. COHEN, y E. A. FEIGENBAUM. BARR, A.; COHENAND, P. R. y FEIGENBAUM, E. A. (1989): The Handbook of Artificial Intelligence. Vol. IV. Addison-Wesley. ESCOLANO, F., CAZORLA, M. A., ALFONSO, M. I., COLOMINA, O. y LOZANO, M. A. (2003): Inteligencia Artificial: Métodos, Técnicas y Áreas de Aplicación. Editorial Thomson. GINSBERG, M. (1993): Essentials of Artificial Intelligence. Morgan Kaufmann Publishers. MIRA, J.; DELGADO, A. E.; BOTICARIO, J. G. y DÍEZ, F. J.: Aspectos Básicos de la Inteligencia Artificial. Editorial Sanz y Torres, Madrid, 1995. RICH, E. y KNIGHT, K. (1994): Inteligencia Artificial. 2.a edición. McGraw-Hill Interamericana. RUSSELL y NORVIG, P. (1995): Inteligencia Artificial: Un enfoque moderno. Prentice-hall Hispanoamericana S. A. SHAPIRO, S. C. (1990): Encyclopedia of Artificial Intelligence. Vols. 1 y 2. J. Wiley, 2.a edición. WINSTON, P. H. (1994): Inteligencia Artificial. 3.a edición. Addison-Wesley Iberoamericana. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 APLICACIÓN DE MODELOS MATEMÁTICOS A LA AERODINÁMICA DE VEHÍCULOS AUTOR: AITANA SÁNCHEZ GARCÍA Resumen: A continuación se hará un repaso sobre el papel tan importante que la aerodinámica ha jugado y juega en las carreras de automovilismo. Además, se verá como gracias a los modelos matemáticos se ha podido desarrollar este aspecto de manera notable. HISTORIA DE LA AERODINÁMICA EN LOS COCHES DE CARRERAS El tema de la aerodinámica es relativamente nuevo, ya que se empieza desarrollar con muchos más estudios y pruebas a partir del año 1960, por la necesidad de tener vehículos de carrera más estables y seguros ya que los carros poseían mucha potencia y tecnología a nivel mecánico y las velocidades se hacían cada vez más altas y peligrosas. De aquí es que nace la necesidad de hacer la producción de una fuerza aerodinámica dirigida hacia abajo (sustentación negativa) que empuje el vehículo contra el suelo y lo haga mucho más seguro, estable y con un nivel de competición más alto. En el mundo de las carreras, la eficacia aerodinámica fue, durante décadas, concebida sólo como un método para poder ir más rápido en las rectas, pero en realidad supone unas enormes mejorías tanto en el paso por las curvas como en el frenado. El reconocimiento y la explotación de este hecho han significado, durante los últimos 30 años, el desarrollo tecnológico más importante. La importancia de la aerodinámica ha sido reconocida a través de gran parte de la historia de las competencias de autos de carrera. Desde los comienzos de la carrera Indianápolis 500 (Indy 500), los carros ya eran construidos con los cuerpos aerodinámicos. Sin embargo, la tecnología del motor, la suspensión, y los neumáticos era más importante en aquella época. La aerodinámica del automóvil no fue estudiada detenidamente sino hasta principios de la década de 1960. La reducción de la resistencia del aire sigue siendo importante, pero un nuevo concepto (idea) ha tomado prioridad: la producción de una fuerza aerodinámica dirigida hacia abajo (sustentación negativa), que es considerada más importante que la reducción de la resistencia. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Desde el principio de las competencias de autos de carreras, los carros se han vuelto más y más rápidos. A principios de la década de 1960, la velocidad ya había alcanzado un nivel peligroso. Para disminuir la velocidad y aumentar la seguridad, se decretaron algunas reglas para limitar la potencia del motor y talla de los neumáticos. Puesto que la resistencia del aire producida por el vehículo y los neumáticos ya había sido reducida, los diseñadores necesitaban encontrar alguna otra cosa que les diera a sus coches una ventaja sobre los demás. Ahora, la mayoría de los automóviles producían sustentación. Conforme la velocidad aumenta, la fuerza de sustentación aumenta y el auto se vuelve inestable. Para contrarrestar el problema de la sustentación, los autos de carreras modernos están diseñados para producir sustentación negativa. Esto significa que al auto se le agregan algunos dispositivos que causan que el auto presione contra el suelo y se mantenga más cerca de él. Estos dispositivos neutralizan la sustentación producida por el vehículo o crean de hecho sustentación negativa (fuerza que apunta hacia abajo). Hasta el día de hoy se siguen desarrollando estudios sobre la aerodinámica y como sacar el mayor provecho de la misma. Se denomina aerodinámica a la ciencia del manejo de las corrientes de viento, aplicada a los autos de carreras para añadir adherencia o agarre a los mismos, con el objeto de lograr mayor velocidad y seguridad al piloto. Hay varios métodos que se utilizan para reducir la sustentación o para crear fuerza hacia abajo. Estos métodos incluyen interceptores aerodinámicos (spoilers) y efectos de tierra. El tipo de dispositivo utilizado depende de la clase de competencia y de las restricciones (reglas) que hayan sido impuestas. Como mencionaba anteriormente los alerones delanteros y traseros aumentan el apoyo aerodinámico y, por lo tanto, la velocidad en las curvas. Los mismos se ajustan a las características de cada circuito. En los circuitos rápidos, con largas rectas y pocas curvas, las alas son casi horizontales para reducir el apoyo aerodinámico y la resistencia al avance (e incrementa la velocidad máxima) en las rectas. En circuitos lentos, con pocas rectas y muchas curvas, las alas tienen mucha más inclinación, pues se sacrifica la velocidad máxima en función del agarre (y con él la velocidad) en las curvas, debido al aumento del apoyo aerodinámico. Un dato importante y curioso a resaltar seria el hecho de que un auto de Formula Uno genera hasta cuatro veces su peso en apoyos aerodinámicos ascendentes. Los dispositivos disponibles más simples son un tipo de presas de aire delanteras e interceptores aerodinámicos traseros. Estos dispositivos tienen realmente varios efectos positivos. Al reducir el flujo del aire por debajo del vehículo, una presa de aire delantera reduce la resistencia del automóvil. Además, inmediatamente detrás de la presa de aire, la presión también se reduce, lo cual ayuda a que el radiador reciba un flujo de aire fresco. Al mismo tiempo, la sustentación se reduce en la parte de enfrente del coche. El interceptor aerodinámico trasero puede reducir la separación del flujo en la ventana posterior, lo cual reduce la resistencia del aire. También hace que aumente el flujo del aire por debajo del auto, lo cual promueve la generación de una fuerza hacia abajo en la parte posterior del coche. Se utilizan alas reales (como las de un avión común y corriente) en los autos de carreras de Fórmula Uno, Indy, y Grupo C. Sin embargo, las alas se invierten (se colocan con la parte de arriba hacia abajo) para producir una fuerza hacia abajo en lugar de sustentación hacia arriba. Al instalar las alas cerca del suelo, se pueden producir cantidades más grandes de esta fuerza que apunta C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 hacia abajo. Esto se debe al aumento de la velocidad del flujo entre el ala y el suelo. El aumento en la velocidad del flujo causa que la presión en la superficie inferior del ala disminuya, y que, por consiguiente, la fuerza hacia abajo aumente. Otro de los dispositivos que se utilizan es el conocido como "strake". Estos dispositivos se usan comúnmente en los aviones de alto rendimiento. En un avión, el strake produce sustentación. En un auto de carreras, la mayoría de las veces el strake es utilizado en combinación con una ala montada en la parte de atrás para aumentar la fuerza hacia abajo en la parte posterior del carro. Los strakes también pueden estar instalados en la parte de enfrente del coche. Se utilizan en carros que no tienen alas delanteros. Estos strakes se pueden ajustar para balancear la fuerza hacia abajo entre el strake delantero y el strake trasero. Otro dispositivo que se utilizaba para aumentar la fuerza hacia abajo eran las "faldillas", las cuales se montaban en los lados del coche y cerca del suelo. Entre más cerca del suelo estaba la faldilla, mayor era la fuerza hacia abajo que se producía. Pero si por alguna razón la faldilla se despegaba repentinamente, ocurría una enorme pérdida de fuerza hacia abajo. Esto podía fácilmente originar que el piloto perdiera el control del coche. Por tal motivo, se prohibió el uso de faldillas en la mayoría de las competencias. La prohibición de las faldillas condujo al desarrollo de canales en la parte de abajo del carro. Estos canales se extienden de la parte de enfrente a la parte de atrás. Conforme la velocidad del aire que corre a través de los canales aumenta, la presión disminuye. Si se permite que entre aire de los lados, se forma un vórtice muy fuerte. Este vórtice ayuda a estabilizar el flujo que corre por debajo de todo el vehículo. De esta forma, estos canales aumentan la fuerza hacia abajo y disminuyen la resistencia del aire del vehículo. En las carreras de Fórmula Uno y NASCAR, los canales en la parte de abajo de los autos no están permitidos. Por lo tanto, se agrega una pequeña inclinación detrás del eje trasero. Esta inclinación tiene el mismo efecto que los canales, sólo que en menor grado. Sin embargo, hay que recordar que en las carreras de autos cualquier ayuda cuenta. La fuerza hacia abajo tiene que estar bien distribuida entre la parte delantera y la parte trasera del coche. Si el carro tuviera una carga más grande en la parte de enfrente que en la parte de atrás, no será estable. Cuando la parte trasera tiene una carga más grande, el coche se estabiliza. El balance no deja de ser importante, porque si el auto es demasiado estable, resulta difícil dar vuelta. El instalar un ala en la parte delantera de un auto Indy podría causar problemas. La instalación de un ala delantero causa que el flujo del aire se desvíe de las entradas de aire fresco. Esto se puede solucionar cortando una porción de la ala cerca del encastre (la base de la ala). Esto puede resultar en una mucha mejor distribución de la fuerza hacia abajo al mismo tiempo que se mantienen las entradas de aire despejadas para una mejor circulación de aire fresco. Para los prototipos de carreras, el uso de un ala delantera crea diferentes problemas. La ala puede hacer que el flujo de aire se desvíe por encima del coche y se aleje de los canales de la parte de abajo del auto. La fuerza hacia abajo en el eje trasero se reduce. Usando una superficie superior cóncava, los efectos de un ala delantera se pueden simular (imitar) sin tener que desviar el flujo de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 la parte de abajo del coche. Esto puede mejorar la distribución de la fuerza hacia abajo entre el eje delantero y el eje trasero. La colocación del ala posterior también podría resultar problemática. El papel principal de un ala posterior única es ayudar al flujo que corre por debajo del coche. Pero la fuerza hacia abajo se reduce al instalar esta ala. Para recuperar parte de la fuerza pérdida, una segunda ala se coloca más arriba, encima de la primera ala. Las reglas de las competencias de autos de carreras limitan la altura a la que se puede colocar la segunda ala en los prototipos y coches de Fórmula Uno, pero las reglas de las carreras Indy sólo permiten un ala en la parte posterior del coche. Las llantas también crean resistencia aerodinámica en los coches que tienen las ruedas descubiertas. Esto se debe a la separación del flujo de aire detrás de los neumáticos. Se han utilizado varios artificios (trucos) para tratar de disminuir esta resistencia. Generalmente se utiliza una simple placa para desviar el aire alrededor de la llanta, reduciendo así la separación del flujo. Los pilotos aprovechan la aerodinámica el día de la carrera para sacar ventaja. Siguiendo a otro coche lo más cercano posible, un piloto puede lograr reducir la resistencia de su auto y gastar menos combustible (a esta práctica se le conoce como "drafting" y es utilizada muy a menudo por los pilotos de NASCAR, particularmente. La resistencia del carro de enfrente también disminuye porque la separación del flujo en la parte posterior es menor debido al coche que lo sigue. Sin embargo, conforme los coches se acercan uno al otro, la cantidad de sustentación y fuerza hacia abajo varía. Esto representa un problema porque significa menos estabilidad para ambos coches. Los prototipos y los autos de carreras Indy utilizan canales en la parte de abajo, lo cual hace que la práctica del drafting no sea una buena opción. Estos canales provocan que el flujo de aire proveniente del coche de adelante sea altamente turbulento (desordenado). Esto, a su vez, tiene un efecto negativo en los dispositivos aerodinámicos del vehículo que va siguiendo al primero. Por lo tanto, en este tipo de carreras, el piloto que va al frente podría utilizar los efectos aerodinámicos de su vehículo para hacer que los coches que lo siguen pierdan velocidad al forzar a los demás pilotos a conducir en su estela (turbulencia). Debido a la fuerza aerodinámica que se genera hacia abajo, la velocidad que alcanzan los autos de carreras ha seguido elevándose. Constantemente se realizan cambios en las reglas que rigen el uso de dispositivos en el vehículo, así como en los esfuerzos que realizan los diseñadores para desarrollar nuevos dispositivos que aumenten la velocidad. Conforme la aerodinámica de los autos de carreras cambia, también cambian las técnicas de los pilotos. Pronto podría desarrollarse una nueva rama en la aerodinámica de los automóviles, ya que actualmente se está intentando ¡romper la barrera de sonido en un automóvil! A continuación desarrollaremos un poco más de que trata la aerodinámica en los automóviles comunes y corrientes, para poder entender de una forma más clara en que se basa la aerodinámica en los automóviles de carrera. La aerodinámica tiene su mayor impacto en los carros y camiones modernos a través de su contribución a las cargas sobre el carro. Las fuerzas aerodinámicas interactúan con el vehículo C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 causando arrastre, sustentación, fuerzas laterales, momentos y ruidos. Todo ello trae como consecuencia alteraciones en el consumo de combustible, el manejo y la estética de un vehículo. Los parámetros que rigen las formas de un auto de calle son muy diferentes a los de un auto de carreras. Aunque los dos son producto de limitaciones impuestas por el hombre y por la naturaleza, estas imposiciones surgen de requerimientos muy diferentes: mientras que en los autos de carreras la eficiencia aerodinámica, la sustentación negativa y las reglas propias de cada categoría son las que le dan forma al auto, en los autos de calle la estética, la funcionalidad, el consumo de combustible, la seguridad y el uso particular del carro son los que determinan su forma. A finales del siglo 19 y principios del siglo 20 la preocupación de los fabricantes de automóviles estaba centrada en el desarrollo y optimización de los componentes mecánicos de un automóvil (motor y transmisión). Por supuesto la estética jugaba un papel fundamental, pero básicamente los coches consistían en un bastidor precario sobre el cual se montaba el motor, la transmisión y las tres o cuatro ruedas con su respectivo sistema de dirección. Todo ello se remataba con una carrocería a la moda, generalmente diseñada por carroceros italianos o ingleses, con un fin más estético que ingenieril. En la década de 1930 los fabricantes de automóviles en los Estados Unidos de América y en otros países se preocuparon por reducir el arrastre en la producción de modelos de automóviles y en esta forma introdujeron la configuración aerodinámica. La mayor parte de este trabajo era intuitivo por parte del diseñador, solamente desde 1945 los ensayos en túneles de viento se utilizaron en forma extensa para el diseño de automóviles, llegando a formas convencionales. A pesar de los esfuerzos, algunos diseños intuitivos que parecían bien delineados con forma aerodinámica, usualmente tenían serios problemas de flujo de aire. Los dos primeros automóviles producidos masivamente y con forma aerodinámica fueron estadounidenses, el Chrysler Airflow (1934) con Cd = 0.50 y el Lincoln Zephyr (1936) con Cd = 0.45. Estos coeficientes de arrastre fueron considerablemente menores que los de otros automóviles pero tuvieron un éxito comercial limitado. En 1948 se produjo sin mucho éxito el Tucker Torpedo 51 (Cd = 0.39). El desarrollo a partir de esos años fue grande y hoy en día la mayor parte de los automóviles tipo sedan tienen un Cd entre 0.32 y 0.35. Modelos matemáticos para la obtención de una mejor aerodinámica El flujo sobre el cuerpo de un carro está gobernado por la relación entre velocidad y presión expresada en la ecuación de Bernoulli: P estática + P dinámica = P total (1) Ps + ½ r V2 = P total Antes de aproximarse al vehículo la presión estática es simplemente la ambiental. La presión dinámica es producida por la velocidad relativa, que es constante para todas las líneas de corriente aproximándose al vehículo. Por lo tanto la presión total es la misma para todas las líneas de corriente. Al aproximarse el fluido al vehículo, las líneas de corriente se "parten", algunas van a la C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 parte de arriba y otras a la parte de abajo del vehículo. Por interferencia, una línea de corriente debe ir derecho al cuerpo y estancarse (generalmente en el parachoques del carro), con lo cual la velocidad relativa se va a cero y la presión dinámica observada en ese punto debe ser cero. La situación de las líneas de corriente al aproximarse al capó es similar a lo que sucede con un fluido que pasa a través de un cilindro. Para que las líneas de corriente se doblen hacia arriba la presión estática en esta región debe ser mayor que la ambiente para así proveer la fuerza necesaria para doblar el fluido. De la misma forma cuando el flujo se voltea para seguir la primera parte del capó, la presión debe ser menor que la ambiente de tal forma que el fluido se "doble" hacia abajo y, por lo tanto, la velocidad se debe incrementar. La ecuación de Bernoulli explica cómo la presión y la velocidad deben variar sobre el cuerpo de un auto. Si no existiera la fricción el aire simplemente subiría hasta el techo del carro y bajaría por la parte de atrás, intercambiando presión por velocidad como lo hizo adelante. Para este caso las fuerzas de presión en la parte de atrás del vehículo balancearían exactamente las de enfrente (no se produciría arrastre). Pero se produce arrastre como todos sabemos. El arrastre se debe en parte a la fricción del aire sobre la superficie del vehículo y en parte a las alteraciones del flujo en la parte de atrás del vehículo. Estas alteraciones se producen debido a la separación de la capa límite. La capa límite en el frontal de un vehículo empieza en el punto de estancamiento. En ésta parte de la dirección del flujo se produce el llamado "Gradiente de Presión Favorable", es decir, debido a que la presión va disminuyendo desde éste punto, el gradiente de presión empuja el aire a lo largo de la capa límite impidiendo su crecimiento. Desafortunadamente, cuando el fluido se voltea nuevamente, la presión se incrementa nuevamente, desacelerando el flujo de la capa límite y haciéndola crecer ("Gradiente de Presión Adverso"). Existe un "Punto de Separación" donde el flujo cerca de la superficie es reversado debido a la presión. En este punto el flujo principal ya no está adherido al cuerpo y ahora es capaz de romperse e irse en línea casi recta. Debido a que trata de ingresar aire desde la región detrás del cuerpo, la presión en esta parte cae a menos de la ambiente. Se forman vórtices y el fluido es muy irregular en esta región. La presión en la región de separación es menor que la de la parte frontal del vehículo, la diferencia de estas fuerzas totales de presión es la responsable del "Arrastre de Forma". La fuerza de arrastre resultado de la acción de la fricción viscosa en la capa límite de la superficie del carro es la llamada "Arrastre de Fricción". Distribución de Presiones sobre un vehículo La distribución de presión estática es resultado del mecanismo básico explicado en el anterior punto. Una presión negativa se desarrolla en la punta frontal del capó cuando el flujo que sube de la parte frontal intenta seguir la forma horizontal del capó. El gradiente de presión adverso en este punto tiene el potencial de atascar el flujo de capa límite creando arrastre en ésta área. Cerca de la base del parabrisas el flujo debe ser doblado hacia arriba por lo cual se experimenta una alta presión. Esta región de alta presión es el sitio ideal para colocar entradas de aire. La baja velocidad de esta región hace adecuada la colocación de limpiaparabrisas. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La presión se hace nuevamente negativa sobre el techo cuando el flujo intenta seguir el contorno de éste. La presión sobre el vidrio trasero y sobre el baúl continúa baja debido a la curvatura continua. Es en ésta región donde sucede con más frecuencia la separación. El diseño de los ángulos y los detalles del contorno del vehículo requieren una especial atención desde el punto de vista aerodinámico. Debido a la baja presión en el techo, el flujo sobre los lados del carro intentará alimentar de aire esta región y dará pié a potencial separación. Este flujo, combinado con el del techo, formará vórtices que se desprenden desde atrás del carro. La escogencia de los ángulos del vidrio trasero y de la longitud del baúl tendrá un impacto directo sobre el control del punto de separación y las fuerzas aerodinámicas. A menor área del punto de separación, menor el arrastre. Teóricamente, la forma aerodinámica ideal es una parte trasera en forma de gota con una forma cónica afilada en un ángulo de 15º o menor. Desde 1930 ya se reconocía que, debido a que el área hacia la punta del cono es muy pequeña, la punta de un vehículo ideal puede ser cortada sin una penalización muy grande del área de separación, permitiendo de esta forma más espacio para las plazas traseras. Componentes del Arrastre El arrastre es la mayor y más importante fuerza aerodinámica encontrada en autos de pasajeros a velocidades normales de autopista. El arrastre total en los vehículos se deriva de varias fuentes. Existe un gran potencial de reducción de arrastre en esas áreas. Para un vehículo normal, aproximadamente un 65% del arrastre proviene del la carrocería. • • • • • • Parte trasera: La mayor contribución de arrastre proviene de la parte trasera debido a la zona de separación. Acá es donde existe el mayor potencial de reducción. Parte delantera: El arrastre delantero es influenciado por el diseño del frontal y del ángulo del parabrisas. La localización de la altura de la punta frontal del vehículo establece el punto de estancamiento y la separación del flujo hacia arriba y abajo del auto. El menor arrastre se obtiene con una altura baja de éste punto y con una forma bien redondeada. Parabrisas: Ángulos bajos reducen el arrastre pero complican el diseño del vehículo pues inducen un mayor calentamiento del interior e incrementan la distorsión óptica. Parte inferior: Las suspensiones, el exhosto y otros elementos protuberantes en la parte inferior de la carrocería son responsables de arrastre. Protuberancias: Una segunda área de reducción de arrastre son las protuberancias de la carrocería. Por ejemplo, las ruedas producen un flujo turbulento recirculante en las cavidades, aumentando el arrastre. Flujo interno: El sistema de refrigeración, con el aire pasando a través del radiador, impactando el motor y frente de la cabina produce presión dinámica que actúa como arrastre en esa zona. Un diseño cuidadoso puede dirigir el flujo de tal forma que mantenga su velocidad. Un caso de optimización C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La optimización está fundada en la premisa que el concepto de estilo del carro está establecido de antemano y que las mejoras aerodinámicas sólo pueden ser logradas en la forma de cambios pequeños a detalles de estilo. El poder de reducción en el arrastre debido a la atención en los detalles puede ser muy grande. Como ejemplo tenemos el recientemente lanzado Mercedes-Benz Clase C. Uno de sus atributos más impresionantes es el bajo coeficiente de arrastre aerodinámico. Los ingenieros de la Mercedes lograron reducirlo en un 13% sobre la anterior generación de Clase C (ahora está en 0.26). La compañía anota que el arrastre puede ser responsable de más de la mitad del consumo de combustible en un auto de pasajeros. La atención en los detalles es la causante de tan sorprendente número .Cinco medidas son las responsables de esto: • • • • • "Air Dams": "Spoilers" localizados debajo de la nariz del carro, reducen el arrastre y la sustentación e incrementan el flujo de aire al radiador haciendo que se separe de la parte trasera de la carrocería con poca turbulencia. "Spoilers" Traseros: Los "spoilers" y las superficies de sustentación funcionan así: al desviar el aire hacia arriba, la presión es incrementada en la parte trasera creando una sustentación negativa. "Spoiler" en las ruedas: Estos pequeños elementos plásticos en las ruedas delanteras y traseras reducen la presión trasera del aire en frente de las ruedas, reduciendo el valor del coeficiente de arrastre y la sustentación. Encapsulación de la parte inferior: Los grandes y suaves paneles plásticos que llegan hasta el eje trasero permiten que el flujo de aire fluya sin turbulencia. Encapsulación del compartimiento del motor: La total encapsulación del compartimiento del motor no sólo permite el control acústico sino que también guía el flujo del aire acertadamente hacia abajo y previene la formación de remolinos en el área del motor. Ahora bien, ya habiendo desarrollado de una manera un poco amplia todos los factores que influyen en la aerodinámica de un vehículo, se puede continuar indagando en el tema con más conocimientos básicos sobre la materia (aerodinámica). Los apéndices aerodinámicos, junto con los neumáticos, proporcionan a los carros de Fórmula Uno una sensacional habilidad para girar. Así pueden llegar a generar fuerzas laterales de más de 3.5 G al pasar por una curva. En comparación, un carro normal no puede llegar a sostener mucho más de 1G, ya que en ese punto pierde el agarre y comienza a derrapar. El apoyo aerodinámico es la clave para esta sensacional habilidad para girar: la creación de la “sustentación negativa” que se consigue con apéndices aerodinámicos que realizan la función inversa a las alas de un avión, empuja el carro hacia abajo y aumenta el nivel de adherencia de las llantas. La nueva reglamentación introducida en 1998 tenía la intención de reducir los niveles de apoyo aerodinámico por el bien de la seguridad. La reducción del apoyo atribuible a estos cambios fue de alrededor de un 15% pero es tal el desarrollo en la Fórmula 1 que este déficit se compensó a lo largo del año. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La mayoría de las ayudas aerodinámicas de un carro de Fórmula 1 están compuestas de dos capas de fibra de carbono envolviendo un perfil de aluminio en nido de abeja. Un carro de Fórmula 1 es, en esencia, una forma “sucia” aerodinámicamente hablando, ya que la reglamentación de la FIA dicta que los monoplazas no lleven carrocería y que las ruedas no vayan cubiertas, por lo que la misión de lograr la eficacia aerodinámica es muy dura. A pesar de que la pista es la meta final, el túnel de viento es donde se encuentra el verdadero desafío. Así, se crea un modelo a escala, en lo que cada detalle relevante del carro auténtico es reproducido fielmente. La mayoría de los túneles de viento de Fórmula 1 pueden alojar reproducciones de un 40-50 % del tamaño real. Durante el transcurso de las pruebas se cambian docenas de pequeños detalles para comprobar si mejora el rendimiento: morros alternativos con otras formas, difusores traseros, entradas de aire de los pontones, alerones delanteros y traseros y una infinidad de cosas más. Los efectos aerodinámicos en diferentes zonas del carro suelen estar relacionados entre sí, por lo que el proceso resulta muy complejo. Los aerodinamistas saben también que los factores externos influirán en el rendimiento del carro: una ráfaga de viento, o el aire turbulento producido por un coche que marcha adelante. Los mejores equipos cuentan con hasta cinco aerodinamistas debido a la cantidad de factores que hay que tener en cuenta. Las pruebas en los túneles de viento no están limitadas al período de gestación de un nuevo coche, aunque ciertamente es cuando más se trabaja en ello. Esta tarea continúa a lo largo de la temporada, ya que siempre se están creando refinamientos para mejorar resultados. Hay mucho más en el túnel de viento de lo que se pueda parecer a la primera vista, Las fotografías publicadas de túneles de viento en funcionamiento, normalmente, muestran el modelo a escala colocado sobre una base conocida como la sección de trabajo, pero ésa es una parte muy pequeña de toda la instalación. Escondida se encuentra una enorme turbina que genera el flujo de aire que pasa por la maqueta. El aire viaja a una distancia considerable antes de alcanzar la zona de trabajo. Antes se acelera a través de las paredes, el suelo y el techo convergiendo para formar lo que se conoce como tobera de concentración. Tras llegar a la zona de trabajo, el flujo de aire vuelve a circular por la turbina para pasar por el modelo a escala una y otra vez. Esto garantiza unos resultados más regulares, ya que el aire fresco del exterior produciría fluctuaciones en la temperatura, lo que alteraría la densidad de manera impredecible. Para simular las condiciones más parecidas a la realidad, la maqueta, sujeta desde arriba por un brazo, se coloca sobre una cinta móvil que simula el movimiento de la superficie de la pista debajo del carro. El “suelo móvil” como es conocido, se mueve a una velocidad correspondiente al flujo de aire, que pasa por el túnel de viento, una vez más, para simular de manera precisa las condiciones reales. Las cuatro ruedas/llantas no están fijadas al modelo de escala. En realidad, se encuentran situadas a cierta distancia de él, sujetas a unas varillas horizontales montadas a cada lado del suelo móvil y reposan sobre éste, que las hace girar a la velocidad apropiada. Esta solución permite la C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 medición de los niveles de apoyo aerodinámico independiente en cada llanta. Debido a su gran tamaño, las llantas crean bastante resistencia aerodinámica: alrededor de un tercio del total del carro. Los aerodinamistas intentan averiguar cómo los niveles de resistencia de las ruedas son influenciados por los cambios realizados en otras partes del carro El brazo que sujeta el modelo escala es parte del complejo sistema que mide las fuerzas aerodinámicas que actúan sobre la maqueta. Los datos resultantes son enviados a un ordenador situado en la sala de control del túnel justo enfrente de la zona de trabajo. Los aerodinamistas ponen en particular énfasis tres parámetros: apoyo aerodinámico, resistencia aerodinámica y equilibrio de las fuerzas actuantes sobre cada eje. Los niveles de apoyo aerodinámico deberían aumentar durante el transcurso de una sesión de trabajo en el túnel de viento como resultado de las modificaciones llevadas a cabo sobre la maqueta. Es necesario tener un dispositivo que crea succión, situado justo por debajo de la zona de trabajo, con el fin de de mantener plano el suelo móvil, ya que, a pesar del modesto tamaño, la maqueta genera una considerable succión aerodinámica que levantaría el suelo móvil Los niveles de resistencia juegan un papel crítico en el rendimiento aerodinámico, ya que no sólo reduce la velocidad del carro sino que afecta al consumo de combustible. Los aerodinamistas intentan aumentar el apoyo sin que aumente también la resistencia. El equilibrio, aplicado a la aerodinámica de un carro de carreras, es la sensibilidad del carro a los cambios de altura del morro y la zona trasera (denominado cabeceo) y la oscilación vertical. El cabeceo se reduce cuando el carro sube el morro acelerando o lo baja cuando frena; esta causa que el centro de presión del carro mueva hacia adelante y hacia atrás, desestabilizando. Los objetivos principales de las pruebas en el túnel de viento, son a la vez, minimizar los cambios en la posición del centro de presión y mejorar la tolerancia del carro cuando éstos ocurren. Los cambios en oscilación vertical son movimientos verticales, cambios en la altura del carro con respecto al suelo, cuando el carro pasa por una ondulación en la pista; esto también lo desestabiliza, ya que los niveles de apoyo varían de forma impredecible. Unos servos controlados por ordenador pueden alterar los ángulos de cabeceo y la altura del carro mientras el túnel de viento está en funcionamiento, lo que permite a los aerodinamistas comprobar los efectos de dichos movimientos en el equilibrio del carro La mayoría de los equipos de Fórmula 1 cuentan con su propio túnel del viento. Jordan, por ejemplo, construyó el suyo propio en 1997 con un costo de 2,7 millones de euros. Sin embargo, algunos equipos realizan sus pruebas en otras instalaciones. Por ejemplo, McLaren tienen un acuerdo exclusivo para utilizar el túnel de viento del Instituto Nacional Marítimo de Teddington, cerca de Londres, y Tyrrell, que venía alquilando el túnel a la universidad de Southampton a un costo de 1.500 libras por día, finalmente consiguió el suyo propio en el Aeropuerto Internacional De Bournemouth tras llegar a un acuerdo con un patrocinador, European Aviation. La cantidad de pruebas realizadas por un equipo varía dependiendo de si cuenta o no con su propio túnel de viento o lo tiene que compartir con otras compañías, en caso, la disponibilidad y el presupuesto entran en juego. El tiempo total de pruebas a lo largo de un año varía de un mínimo de 50 días pudiendo llegar hasta los 150. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La distancia no es un problema cuando la necesidad es urgente. El equipo Stewart, cuando se preparaba para entrar en la Fórmula 1 al comienzo de 1997, realizaba sus pruebas un océano y un continente más lejos, en la fábrica de Swift en San Clemente California. El equipo Stewart está dirigido por el triple campeón del mundo Jackie Stewart y su hijo, Paul, y cuenta con un gran apoyo de Ford. Con base en Milton Keynes, justo al norte de Londres, tuvo una temporada de debut muy prometedora, marcada por el segundo puesto logrado por Rubens Barrichello en el Gran Premio de Mónaco. Los continuos avances de la tecnología alteran la naturaleza de las pruebas aerodinámicas. En el túnel del viento se utilizan rayos láser para “visualizar” la turbulencia y medir el flujo de aire en determinadas zonas. El laser ofrece el beneficio de ser capaz de medir de forma precisa las características del flujo de aire sin interferir físicamente con él. Además, las pruebas en el túnel del viento se complementan cada vez más con análisis por ordenador del comportamiento del flujo de aire. Una rama emergente de la disciplina conocida como Dinámica de Fluidos Computacional (Computacional Fluid Dynamics, CFD) permite predecir el rendimiento aerodinámico de los objetos antes, incluso, de ser constituidos. La CFD también permite realizar comparaciones con las pruebas físicas realizadas con la maqueta con el fin de aumentar la precisión de las técnicas utilizadas para probar. Los alerones delanteros normalmente proporcionan un 25 por ciento del apoyo aerodinámico total del carro, pero cuando un carro sigue de cerca a otro, puede llegar a perder hasta un 30 por ciento de ese apoyo debido a que las turbulencias causadas por el carro de adelante reducen la eficacia aerodinámica. Esta es la principal razón por la que los adelantamientos se han convertido en algo poco corriente en la Fórmula 1. Ya se explicó al comienzo, de diseñadores que intentan llevar hacia adelante la mayor cantidad de peso posible, ya que los componentes más pesados se encuentran en la parte de atrás y desgastan con mayor facilidad las llantas traseras. Pero aparte del efecto favorable de la distribución del peso, existe un beneficio aerodinámico en la transferencia del peso a las llantas delanteras. Esto es así porque, cuando mayor peso haya en las llantas traseras, mayor es el apoyo aerodinámico necesario para mantener el rendimiento al girar, y mayor es la resistencia aerodinámica. Por tanto es, es preferible retribuir el peso hacia la parte delantera y después generar más apoyo con los alerones delanteros, lo que le da al carro un mejor equilibrio. Cada alerón delantero está compuesto normalmente por dos o tres apéndices aerodinámicos. Habitualmente están montados sobre dos soportes que salen del morro, aunque también puede ser uno solo. En algunos carros con doble soporte, éstos se encuentran en diagonal arqueados, en lugar de verticalmente para contribuir a la rigidez lateral. En los extremos de los alerones delanteros se encuentran las derivas. Estas canalizan el flujo de aire para mejorar su eficacia evitando que se “escape” por los extremos del alerón y pierda efectividad. Además ayudan a equilibrar el flujo de aire de las llantas. El flujo de aire cuando sale del alerón delantero y pasa por debajo del carro, debe estar equilibrado y bien dirigido con el fin de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 que el fondo plano y el difusor trasero funciones correctamente. El espacio entre el alerón y el suelo puede ajustarse, así como los ángulos de los diferentes apéndices del mismo. En principio, cuando mayor es el ángulo, mayor será el apoyo aerodinámico. Para incrementar el apoyo la mayoría de los carros incluyen el “perfil Gurney” fijado en el borde de salida del alerón delantero. llamado así en homenaje al legendario piloto americano Dan Gurney, se trata de una fina tira de fibra de carbono que añade un pequeño borde a la forma del alerón , incrementando el apoyo que genera (también se montan en el alerón trasero y en el difusor). Cuando se necesita incluso más apoyo aerodinámico, algunos carros montan apéndices extras montados encima del principal. Estos <<bigotes>> fueron introducidos por primera vez por el equipo Tyrell. Montar el alerón delantero cerca del suelo aumentará su eficacia, pero existe una regla que marca lo cerca que se puede situar. En 1993, la FIA subió la distancia obligatoria entre los derivas del alerón delantero hasta 40 mm, mientras que hasta ese momento había sido de 25mm. En 1997, Ferrari introdujo un nuevo alerón construido con una fibra de carbono especial que hacía que se torciera por las puntas cuando era sometido a la presión del aire. Haciendo eso, se lograba que la distancia con el suelo se redujera, incrementando su eficacia al subir el nivel de resistencia aerodinámica. Cuando el carro se encontraba en reposo, sin influencias aerodinámicas, los alerones cumplían perfectamente el reglamento, pero un simple toque con la mano era suficiente para doblarlo, por lo que normalmente no se notaba nada a simple vista. El reglamento de la FIA prohíbe <<apéndices aerodinámicos móviles>> todo lo que tuviera alguna importancia en la aerodinámica debía no moverse cuando el carro lo hacía, pero esto siempre se interpretó como una prohibición de métodos mecánico que alteraran el ángulo de las ayudas aerodinámicas. El reglamento especificaba lo duros que debían ser los alerones; por lo tanto , era un área por explotar. Ferrari había seguido las reglas al pie de la letra en lugar de adaptarse a la lógica: algo bastante común en la Fórmula 1. Todas las estructuras se tuercen bajo presión, tanto si se trata de un alerón de un avión o del mango de una raqueta de tenis. Si fueran demasiado duros se romperían. El innovador alerón de Ferrari, diseñado para tener una capacidad de torsión, causó dolores de cabeza a los directivos de la Fórmula 1. En el campeonato CART americano, en el que se utiliza carros con muchas similitudes a los de Fórmula 1, los comisarios cuelgan pesos de determinadas partes de la carrocería, incluidos los alerones, y después toman las medidas para asegurarse de que no pasen los límites impuestos. Esta solución fue incorporada en la Fórmula 1 por la FIA en 1998. Vistos por primera vez en un Gran premio de 1994, los canalizadores laterales, también conocidos como guías de flujo, van montados a los lados de los carros de Fórmula 1 con el fin de ayudar a controlar las turbulencias salientes del alerón delantero. Si no se trataran, estas turbulencias disminuirían la eficacia de otros apéndices aerodinámicos situados en la parte trasera. La nueva reglamentación para 1998 ha tenido como resultado que ruedas delanteras influyan en el flujo de aire controlado por los canalizadores laterales, por lo que su importancia es aun mayor. Los canalizadores laterales se montan en diferentes formas, tamaños y combinaciones de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 acuerdo con los requerimientos aerodinámicos de los carros en los diferentes circuitos, y debe de haber uso de huecos en ciertos canalizadores laterales para permitir el paso a los elementos de la suspensión. Algunos canalizadores laterales de poca altura y largos, extendiéndose hasta los pontones, mientras que otros son altos y cortos. Los canalizadores laterales alargados se pueden ver en la foto del Minardi en 1997. Este pequeño equipo de Faenza, Italia, ha sobrevivido en un mundo ultra competitivo que ha visto cómo han desaparecido nombres ilustres como Brabham o Lotus. Carece del presupuesto, y con ello de las facilidades de los equipos grandes, pero ha conseguido grandes resultados y ha lanzado a muchos pilotos de cabeza como Giancarlo Fisichella. Los carros de Giancarlo Minardi, son obra del diseñador jefe Gustav Brunner, que trabaja bajo las ordenes de Gabrielle tredozzi. La tendencia de utilizar los morros elevados en los Fórmula 1, iniciada por el diseñado jefe de Tyrrell Harvey Postlehwaite, tiene como objetivo permitir el paso a la mayor cantidad de aire posible debajo del carro, donde pasa por el fondo plano y llega al difusor para generar más apoyo aerodinámico. El morro del Ferrari de 1998 estaba tan alto que tenía dos salientes para poder albergar un lugar de descanso para los talones del piloto. El piloto de McLaren, David Coulthard, comparó la posición para pilotear un Fórmula 1 con estar metido en la bañera mientras se utilizan los pies para jugar con los grifos. Algunas protuberancias en los morros de los coches tienen la función de dirigir el flujo de aire alrededor del cockpit y hacia los tomas de aire. El director técnico de McLaren,Adrian Newey, es conocido como el diseñador de más talento de la Fórmula 1. Sus ideas, llevadas a cabo en MP4/13 de 1998, han permitido a Ron Dennis, jefe del equipo, volver a colocar a su equipo en lo más alto de la Fórmula 1. El apéndice aerodinámico más importante de un carro de Fórmula 1 es casi invisible para los espectadores, a menos que el carro sea levantado por una grúa. Se trata del fondo del plano: un panel de fibra de carbono y aluminio, con tres superficies planas, una <<quilla>> con una superficie elevada a ambos lados que va unida directamente a la parte inferior del chasis. En 1998, el Lotus diseñado por Colin Chapman logró con éxito astronómico generando de una manera revolucionaria más apoyo aerodinámico. El monoplaza contaba con unos grandes apéndices montados dentro de los pontones y unos <<faldones>> que anulaban el espacio entre lotus, considerado completamente legal fue copiado universalmente e hizo histórica la época conocida como la de los carros con <<efecto suelo>>. Esa era llego a su fin en 1983, cuando se introdujeron unas nuevas normas con el fin de reducir el apoyo aerodinámico y así limitar la velocidad de paso de curva de los carros de Fórmula 1, que para entonces se habían vuelto muy peligrosos. A pesar de que esta regla impedía a los diseñadores introducir cualquier cosa que creara más apoyo en el fondo plano, les daba libertad para introducir lo que desearan en el difusor trasero, el apéndice curvado hacia arriba situado detrás del fondo plano. La relación entre el fondo plano y el difusor trasero es crucial. La forma curvada hacia arriba amplia el espacio entre la parte inferior del carro y el suelo, lo que hace que el flujo de aire pierda C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 velocidad del mismo modo que lo hace que salga más rápido de la parte trasera del difusor. Esto conduce el aire desde debajo del fondo plano, acelerándolo, y según se acelera su presión disminuye, creando un apoyo aerodinámico que <<chupa>>al carro hacia el suelo. El nuevo reglamento introducido para 1998 estipulaba que los coches debían ser 20 cm, un 10% más estrechos que antes: se redujo de 200 cm a 180 cm. Los equipos respondieron acercando la rueda al carro, acortando los brazos de suspensión, en lugar de reduciendo el cuerpo del propio carro, ya que esto habría reducido el tamaño, del fondo plano y con ello del apoyo aerodinámico. Sin embargo las ruedas traseras ahora interferían la zona ocupada por el difusor trasero reduciendo su área aproximadamente en un 25%, por lo que la pérdida de apoyo fue irremediable. Esculpido alrededor de la caja de cambios, el difusor trasero consta de varios túneles no muy largos que ocupan virtualmente todo el espacio que hay entre las ruedas. Unos <<separadores>>situados en el difusor canalizan el flujo de aire para maximizar su efecto: sus formas y posiciones son determinadas en las interminables secciones del túnel de viento. Al igual que el fondo plano, el difusor trasero tiene una construcción de fibra de carbono y aluminio. Aunque se trata de una extensión del fondo plano, va montado sobre la estructura de absorción de impactos trasera, que a su vez está fijada sobre la caja de cambios. En la parte delantera del fondo plano, en el centro, hay un <<separador>> vertical que dirige el aire a ambos lados y debajo del coche. Durante las pruebas en el túnel de viento, los aerodinamistas ajustan la longitud del fondo plano de acuerdo a los cambios realizados en la forma del difusor trasero. Su objetivo es conseguir el nivel óptimo, no el máximo, de apoyo aerodinámico ya que los diseñadores se deben preocupar del equilibrio del carro, buscando mejorar la estabilidad del carro cuando frena, acelera, o negocia ondulaciones de la pista. La posición exacta en la que los tubos de escape penetran en el difusor trasero es determinada por el aerodinamista durante las pruebas del túnel de viento. Esto es debido a que la entrada de gases en esta zona, que es muy sensible aerodinámicamente, puede tener una influencia crítica en la estabilidad del carro, y si no son dirigidos correctamente, generaría suficiente apoyo extra como para hacer que el carro cabeceara de manera impredecible cada vez que el piloto levantara el pie del acelerador. Las puntas de los tubos de escape están anguladas hacia arriba y situadas por encima del difusor en algunos coches y por debajo de otros. Tan crítica es la mescla de los gases de escape con el difusor trasero que durante las pruebas en el túnel del viento se simula la fuerza de estos gases mediante cargas de aire comprimido para simular los efectos que tendría. Además, ahora la reglamentación de la FIA considera los escapes como parte de la aerodinámica del carro. Muchos equipos han llegado a alterar la posición de la luz trasera, que el piloto enciende cuando hay poca visibilidad, con el fin de mejorar el flujo de aire y gases en esa zona. Debido a su función de seguridad, la localización de cada luz está reglamentada por la FIA, pero girarla 45% es considerado legal y se consigue que sus esquinas no interfieran tanto en el flujo de aire. Entre los muchos factores que deben ser considerados a la hora de afinar la aerodinámica de un carro está el de asegurarse de que los gases de escape no dañen los elementos de la suspensión trasera. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Ya que cuanto mayor es el nivel de apoyo aerodinámico mayor es la velocidad de paso por la curva, la FIA ha introducido repetidamente nuevas medidas para restringirla en pos de la seguridad. Para el comienzo de la temporada 1994, la FIA introdujo una nueva regla para forzar a los equipos a que separaran sus carros del suelo lo más posible, reduciendo la efectividad del fondo plano y el difusor trasero. La regla obligaba a que, debajo del fondo plano, debía ir montada una tabla de madera de jabroc de 10 mm de grosor. Si el grosor de la tabla bajaba de 9 mm al final de la carrera, se asumiría que el carro había rodado por debajo de lo permitido y sería descalificado. En 1994, cuando los accidentes sufridos por Roland Ratzenberger y Ayrton Senna les costaron la vida a ambos, la FIA se apresuró a introducir más los cambios que redujeran la velocidad en las curvas. Una vez más, el objetivo era la reducción del apoyo aerodinámico: se creó una restricción en la longitud del difusor trasero. Para el comienzo de la temporada 1995, la FIA introdujo la así llamada norma de <<fondo escalonado>> con el fin de reducir el apoyo una vez más. Esta norma exigía que el fondo plano tuviera dos <<<escalones>> de 50 mm de altura, uno a cada lado, lo que incrementaba significativamente la altura del carro con respecto del suelo. Esto convirtió la norma de fondo plano creada en 1983 en una estructura de tres piezas y dos niveles como la que conocemos hoy. Al tener que seguir llevando la plancha de madera de 10 mm, la altura del carro con el nuevo fondo escalonado era de 60 mm para todas las partes excepto para la situada inmediatamente debajo del chasis, que consiguió siendo la misma. Tal es la determinación y la genialidad de los diseñadores del la Fórmula 1 de superar todas las limitaciones, que los niveles de apoyo aerodinámico se han recuperado rápidamente. Sin embargo, el aumento en la altura del carro ha privado a los espectadores del espectáculo de la lluvia de chispas que producían los faldones de titanio que antes se fijaban al fondo plano y a las derivas de los alerones con el fin de evitar que éstos dañaran cuando el carro tocaba el suelo siempre que iba cargado de combustible. Los pontones albergan los conductos de los radiadores y rellenan la mayoría del espacio entre las ruedas delanteras y traseras con una estructura aerodinámica. El proceso de diseño necesario para definir la forma de los pontones es un buen ejemplo del modo en que los efectos aerodinámicos en diferentes zonas del carro, se interrelacionan, complicando el proceso de manera considerable. A la hora de determinar la altura de los pontones, por ejemplo, se debe encontrar un equilibrio ya que deben ser lo suficientemente altos como para albergar los radiadores, pero no tanto como para interferir con el flujo de aire que pasa a los alerones traseros. La altura de los pontones también influye en el flujo del aire del coche como conjunto. El flujo , tras haber pasado por llantas delanteras, debe transitar por la superficie superior de los pontones antes de llegar a las ruedas traseras. La altura de los pontones influye en el modo en el que el flujo cambia de dirección al pasar por esas zonas, lo que a la vez influye en el apoyo aerodinámico generado en el carro y, por lo tanto, en su estabilidad. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La longitud del fondo plano influye directamente en la longitud de los pontones, debido a una regla de la FIA conocida como la <<regla shadowplate>>. Ésta estipula que los pontones no deben extenderse más allá del perímetro del fondo del plano, tal y como se ve desde arriba. Ya que la longitud, forma y altura de los pontones influyen en el rendimiento aerodinámico del carro, lo que es un factor crítico, se debe intentar encontrar un equilibrio en la fase de diseño. Las formas de las entradas de aire a los pontones son importante, y viene determinada por las pruebas en el túnel del viento. Es necesario conseguir que el flujo de aire entre lo más equilibrado posible por las entradas, si no los radiadores no podrán trabajar con eficacia. El Prost AP01 de 1998 tenía unos bordes muy afilados como entradas de aire. Además el AP01 contaba con unas protuberancias aerodinámicas justo delante de los pontones que tenían una doble función aerodinámica, ya que ayudaban a que entrara aire a los radiadores y canalizaban el flujo por debajo del carro, creado del que era originalmente el equipo Ligier, el equipo Pros dirigido por el cuádruple campeón del mundo Alain Prost, se encuentra en una nueva fábrica situada en Guyoncourt, cerca de parís, tras abondonar las instalaciones de Magny-Cours. El diseñador jefe del equipo es Loic Bigois. Dentro de los pontones se encuentran los conductos de fibra de carbono de los radiadores. Su forma, que también determina en el túnel de viento, debe ser tal que el flujo de aire no se revolucione en su paso hasta los radiadores. Si se vuelve turbulento, no habrá una distribución equitativa de aire refrigerante en cada radiador y el motor tenderá a recalentarse. Aumentar el tamaño de los radiadores para compensar las deficiencias de sus conductos no es una medida aceptable, ya que la mayor área del radiador aumentaría no sólo el peso sino también la resistencia aerodinámica. Cuando el piloto se sale de la pista y rueda por las escapatorias de gravilla, gran parte de ésta entra en los conductos de los radiadores. Si el piloto tiene la suerte de poder volver al circuito, le espera una sorpresa. La primera vez que pise el pedal del freno con fuerza, un torrente de gravilla saldrá despedido por delante de él. Conseguir que entre el flujo de aire equilibrado por la toma de aire de encima del piloto, con lo que el motor funcione a su máximo rendimiento, es un objetivo primordial. Así, se llevan a cabo muchos intentos con el fin de canalizar el aire turbulento de alrededor del casco del piloto e introducirlo limpiamente para la toma. La reducción de los niveles de turbulencia alrededor del casco se ha convertido en una prioridad en los últimos años, no sólo porque puede mejorar las prestaciones del motor sino porque los efectos del aire pueden afectar la concentración del propio piloto. Varios <<alerones>> y otras soluciones esculpidas sobre los cascos, todas perfeccionadas en el túnel de viento, reducen ahora la tendencia de sustentación a altas velocidades a la vez que suavizan el aire alrededor del mismo. El flujo del aire alrededor de las llantas traseras debe ser controlado cuidadosamente para que el carro sea aerodinámicamente eficaz. En la parte posterior del carro, los lados se curvan al estilo de una botella de Coca-Cola con el fin de controlar el flujo del aire alrededor de las superficies internas de las llantas traseras y así reducir la resistencia y maximizar la eficacia del difusor. Unas extensiones del las secciones traseras posteriores de los pontones (puentes de tablas ) generan apoyo aerodinámico adicional y colaboran a que el flujo de aire pase por las llantas C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 traseras. Estos deflectores se denominan <<flip-ups>>. En 1997 la mayoría de los carros contaban con unos pequeños alerones montados en los lados externos de las derivas de los alerones traseros, justo por delante de las llantas traseras, con el fin de generar más apoyo aerodinámico. De hecho, tan sólo Williams y Stewart no usaron alerones ese año. Para 1998 fueron prohibidos por la FIA, por lo que los <<flip-ups>> se convirtieron en la única alternativa. El alerón trasero es capaz de generar un tercio del apoyo aerodinámico total de un carro. Puede estar compuesto de múltiples apéndices (en 1997 algunos carros usaban hasta cuatro tipos) o puede tener una configuración mínima. Esto se debe a que la cantidad de apoyo aerodinámica varía de un circuito a otro, y se debe encontrar un equilibrio entre apoyo y velocidad punta. El Gran Premio de Alemania, que tiene lugar en el ultra rápido circuito de Hockenheim, donde los carros pasan el 75% de una vuelta con el acelerador al máximo, se ven normalmente alerones muy sencillos con el fin de alcanzar la mayor velocidad. Sin embargo, la superior potencia de algunos motores permite a ciertos equipos montar alerones más complejos para así incrementar la velocidad de paso por curva sin perder velocidad de punta. Todos los elementos del alerón son regulables. La configuración habitual es de dos alas, y la inferior cuenta con un diedro negativo en algunos carros. El ala inferior puede influenciar directamente la eficacia del difusor trasero y el fondo plano, por lo que los aerodinamistas deben intentar comprender la compleja relación entre ellos. Al igual que las derivas del alerón delantero, las del alerón trasero canalizan el flujo del aire para asegurar la mayor eficacia, evitando que se pierda por los bordes y reduzca su efectividad. Sin embargo, en este caso, también sirven como medio para montar elementos del alerón.. Algunos carros cuentan con una sola columna para sujetar el alerón trasero, por ejemplo el Ferrari y el Benetton de 1998, mientras que otros utilizan varias. En algunos carros, las derivas son planas, mientras que en otros tienen las formas muy definidas. En todos los casos, están compuestas de dos capas de fibra de carbono y una central de aluminio. Otro factor muy importante, y más moderna herramienta, que es necesaria para desarrollar de una forma exacta y científica la aerodinámica en los vehículos de carrera, es el túnel de viento. En este caso se conocerán las características de un túnel de viento usado por una de los más famosos constructores de autos de la F1, como lo es la Escudería Ferrari. En Fórmula Uno, la potencia y la aerodinámica lo son todo. Una empuja el coche a través del aire, la otra te permite un mejor uso de esa potencia. Y mientras que los hombres del motor emplean su tiempo en el banco de pruebas, los especialistas en aerodinámica pasan su tiempo en la pizarra y en el túnel de viento. Un túnel de viento simula el paso de un coche por la pista, pasando a través del aire. Normalmente el coche está representado por un modelo a media o tercera escala sobre una pista que va dando vueltas, simulando la superficie de una pista real, y el paso del aire es simulado con unos enormes ventiladores. El modelo puede ser fácilmente modificado para proporcionar diferentes C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 soluciones aerodinámicas, mientras que los censores muestran a los especialistas en aerodinámica los efectos de esos cambios. Cada equipo pasa una enorme cantidad de tiempo en el túnel de viento. En algunos casos, los equipos tienen sus propios túneles de viento, pero aquellos que no lo tienen, se ven obligados a alquilarlo. La investigación es continúa, así que la primera solución es la mejor. El más moderno túnel de viento en Fórmula Uno está a punto de entrar en funcionamiento. Ha costado 12 millones de dólares y ha sido diseñado por uno de los mejores arquitectos del mundo, Renzo Piano. Es una parte espectacular de lo que él llama la ciudad de la investigación de Ferrari, un nuevo departamento técnico que será construido en la base del equipo en Maranello. Lo más extraordinario de este nuevo túnel de viento es que ha sido construido enteramente para su utilización por parte del equipo de Gran Premio. Aunque el departamento de coches de carretera utiliza túneles de viento, tienen parámetros diferentes a los del equipo de carreras, así que este nuevo elemento está dedicado solamente al equipo de carreras. No sólo se puede utilizar el nuevo túnel para modelos a media escala que trabajan a velocidades de más de 250 km./h, sino que también se pueden meter modelos de tamaño normal, que trabajan a velocidades de más de 150 km./h con la pista rodante. El nuevo túnel es capaz de medir más de 200 presiones o fuerzas. Y lo que es igual de importante, es que se puede simular un coche tomando una curva, así que el movimiento, guiñada, grado de inclinación, dirección y movimiento dinámico pueden ser también medidos. Esto se puede hacer electrónicamente, sin parar el túnel de viento. También se puede controlar la climatización para permitir que la temperatura del aire pueda ser controlada hasta en más de 0,5 grados centígrados. BIBLIOGRAFÍA - Allem, J. (2002). La Aerodinámica en el Equipo Deportivo, el Entretenimiento y las Máquinas de Carreras. Ed. Willier. Madrid. - Buchaman, C. D. (1998). Mixed Blessing: The Motor in Britain. Hill. Barcelona. - Georgano, G. N. (1985). Cars: Early and Vintage. Grange- Universal. Madrid. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 EVOLUCIÓN DE LA CIENCIA AUTOR: AITANA SÁNCHEZ GARCÍA Resumen: A continuación se expondrá cómo ha ido evolucionando la Ciencia, desde sus orígenes hasta la actualidad, destacando el papel que la Matemática ha jugado en ello, e indicando también de qué manera han intervenido los grandes matemáticos de la Historia. Introducción Aunque los mitos no tienen necesariamente que ser falsos, a menudo se les asigna esa connotación. Aquí se utiliza el término en su sentido clásico: como sinónimo de "leyenda", "fábula", "ficción", no en el más reciente, que lo deja reducido a un sinónimo innecesario de "famoso". La Ciencia, con mayúscula, siempre se ha dirigido (al menos en teoría) al descubrimiento de la verdad. Puede parecer, pues, sorprendente que se afirme que existen mitos en la Ciencia, pero el hombre tiene una capacidad inagotable para crearlos y aferrarse a ellos. Aunque, si vamos a ser estrictos, las ideas a las que hace referencia este artículo no son propiamente mitos científicos, sino que han surgido en otras disciplinas situadas en su periferia, como la Historia o la Filosofía de la Ciencia. El mito del Progreso Indefinido afirma que, una vez que hemos entrado en la era de la Ciencia, el desarrollo científico no puede volver atrás. Los inventos y los descubrimientos se irán sucediendo a un ritmo siempre acelerado, por lo que la curva del desarrollo científico se aproximaría a una exponencial. Antes de abordar esta teoría y tratar de refutarla, vamos a dedicar unos momentos de atención a otros mitos relacionados que sobreviven con insistencia a pesar de su evidente y flagrante falsedad. Orígenes de la ciencia Los esfuerzos para sistematizar el conocimiento se remontan a los tiempos prehistóricos, como atestiguan los dibujos que los pueblos del paleolítico pintaban en las paredes de las cuevas, los datos numéricos grabados en hueso o piedra o los objetos fabricados por las civilizaciones del neolítico. Los testimonios escritos más antiguos de investigaciones protocientíficas proceden de las culturas mesopotámicas, y corresponden a listas de observaciones astronómicas, sustancias químicas o síntomas de enfermedades —además de numerosas tablas matemáticas— inscritas en C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 caracteres cuneiformes sobre tablillas de arcilla. Otras tablillas que datan aproximadamente del 2000 a.C. demuestran que los babilonios conocían el teorema de Pitágoras, resolvían ecuaciones cuadráticas y habían desarrollado un sistema sexagesimal de medidas (basado en el número 60) del que se derivan las unidades modernas para tiempos y ángulos (véase Sistema numérico; Numeración). Orígenes de la teoría científica. Los primeros matemáticos. El conocimiento científico en Egipto y Mesopotamia era sobre todo de naturaleza práctica, sin demasiada organización racional. Uno de los primeros sabios griegos que buscó las causas fundamentales de los fenómenos naturales fue el filósofo Tales de Mileto, en el siglo VI a.C., quien introdujo el concepto de que la Tierra era un disco plano que flotaba en el elemento universal, el agua. El matemático y filósofo Pitágoras, de época posterior, estableció una escuela de pensamiento en la que las matemáticas se convirtieron en una disciplina fundamental para toda la investigación científica. Los eruditos pitagóricos postulaban una Tierra esférica que se movía en una órbita circular alrededor de un fuego central. En Atenas, en el siglo IV a.C., la filosofía natural jónica y la ciencia matemática pitagórica se combinaron para producir las síntesis formadas por las filosofías lógicas de Platón y Aristóteles. En la Academia de Platón se subrayaba el razonamiento deductivo y la representación matemática; en el Liceo de Aristóteles primaban el razonamiento inductivo y la descripción cualitativa. La interacción entre estos dos enfoques de la ciencia ha llevado a la mayoría de los avances posteriores. En esa época el sistema de Tolomeo —una teoría geocéntrica de los planetas (con centro en la Tierra) propuesta por el astrónomo Claudio Tolomeo— y las obras médicas del filósofo y médico Galeno se convirtieron en tratados científicos de referencia para la era posterior. Un siglo después surgió la nueva ciencia experimental de la alquimia a partir de la práctica de la metalurgia. Sin embargo, por el año 300 la alquimia fue adquiriendo un tinte de secretismo y simbolismo que redujo los avances que sus experimentos podrían haber proporcionado a la ciencia. En el siglo XIII la recuperación de obras científicas de la antigüedad en las universidades europeas llevó a una controversia sobre el método científico. Los llamados realistas apoyaban el enfoque platónico, mientras que los nominalistas preferían la visión de Aristóteles. En las universidades de Oxford y París estas discusiones llevaron a descubrimientos de óptica y cinemática que prepararon el camino para Galileo y para el astrónomo alemán Johannes Kepler. La gran epidemia de peste y la guerra de los Cien Años interrumpieron el avance científico durante más de un siglo, pero en el siglo XVI la recuperación ya estaba plenamente en marcha. En 1543 el astrónomo polaco Nicolás Copérnico publicó De revolutionibus orbium caelestium (Sobre las revoluciones de los cuerpos celestes), que conmocionó la astronomía. Otra obra publicada ese mismo año, De corporis humani fabrica (Sobre la estructura del cuerpo humano), del anatomista belga Andrés Vesalio, corrigió y modernizó las enseñanzas anatómicas de Galeno y llevó al descubrimiento de la circulación de la sangre. Dos años después, el libro Ars magna (Gran arte), C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 del matemático, físico y astrólogo italiano Gerolamo Cardano, inició el periodo moderno en el álgebra con la solución de ecuaciones de tercer y cuarto grado. La ciencia moderna a través de la Matemática Esencialmente, los métodos y resultados científicos modernos aparecieron en el siglo XVII gracias al éxito de Galileo al combinar las funciones de erudito y artesano. A los métodos antiguos de inducción y deducción, Galileo añadió la verificación sistemática a través de experimentos planificados, en los que empleó instrumentos científicos de invención reciente como el telescopio, el microscopio o el termómetro. A finales del siglo XVII se amplió la experimentación: el matemático y físico Evangelista Torricelli empleó el barómetro; el matemático, físico y astrónomo holandés Christiaan Huygens usó el reloj de péndulo; el físico y químico británico Robert Boyle y el físico alemán Otto von Guericke utilizaron la bomba de vacío. La culminación de esos esfuerzos fue la ley de la gravitación universal, expuesta en 1687 por el matemático y físico británico Isaac Newton en su obra Philosophiae naturalis principia mathematica (Principios matemáticos de la filosofía natural). Al mismo tiempo, la invención del cálculo infinitesimal por parte de Newton y del filósofo y matemático alemán Gottfried Wilhelm Leibniz sentó las bases para alcanzar el nivel actual de ciencia y matemáticas. Los descubrimientos científicos de Newton y el sistema filosófico del matemático y filósofo francés René Descartes dieron paso a la ciencia materialista del siglo XVIII, que trataba de explicar los procesos vitales a partir de su base físico-química. La confianza en la actitud científica influyó también en las ciencias sociales e inspiró el llamado Siglo de las Luces, que culminó en la Revolución Francesa de 1789. El químico francés Antoine Laurent de Lavoisier publicó el Tratado elemental de química en 1789 e inició así la revolución de la química cuantitativa. Los avances científicos del siglo XVII prepararon el camino para el siguiente siglo, llamado a veces ‘siglo de la correlación’ por las amplias generalizaciones que tuvieron lugar en la ciencia. Entre ellas figuran la teoría atómica de la materia postulada por el químico y físico británico John Dalton, las teorías electromagnéticas de Michael Faraday y James Clerk Maxwell, también británicos, o la ley de la conservación de la energía, enunciada por el físico británico James Prescott Joule y otros científicos. La teoría biológica de alcance más global fue la teoría de la evolución, propuesta por Charles Darwin en su libro El origen de las especies, publicado en 1859, que provocó una polémica en la sociedad —no sólo en los ámbitos científicos— tan grande como la obra de Copérnico. Sin embargo, al empezar el siglo XX el concepto de evolución ya se aceptaba de forma generalizada, aunque su mecanismo genético siguió siendo discutido. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Mientras la biología adquiría una base más firme, la física se vio sacudida por las inesperadas consecuencias de la teoría cuántica y la de la relatividad. En 1927 el físico alemán Werner Heisenberg formuló el llamado principio de incertidumbre, que afirma que existen límites a la precisión con que pueden determinarse a escala subatómica las coordenadas de un suceso dado. En otras palabras, el principio afirmaba la imposibilidad de predecir con precisión que una partícula, por ejemplo un electrón, estará en un lugar determinado en un momento determinado y con una velocidad determinada. La mecánica cuántica no opera con datos exactos, sino con deducciones estadísticas relativas a un gran número de sucesos individuales. La ciencia en España y Latinoamérica Los comienzos de la ciencia española se remontan (dejando aparte el primitivo saber de san Isidoro de Sevilla) a la civilización hispanoárabe y sobre todo a la gran escuela astronómica de Toledo del siglo XI encabezada por al-Zarqalluh (conocido por Azarquiel en la España medieval). Después de la conquista de la ciudad de Toledo por el rey Alfonso VI en 1085, comenzó un movimiento de traducción científica del árabe al latín, promovido por el arzobispo Raimundo de Toledo (véase Escuela de traductores de Toledo). Este movimiento continuó bajo el patrocinio de Alfonso X el Sabio y los astrónomos de su corte (entre los que destacó el judío Isaac ibn Cid); su trabajo quedó reflejado en los Libros del saber de astronomía y las Tablas alfonsíes, tablas astronómicas que sustituyeron en los centros científicos de Europa a las renombradas Tablas toledanas de al-Zarqalluh. En la primera mitad del siglo XVI España participó en el movimiento de renovación científica europea, en el que intervinieron de forma destacada Juan Valverde de Amusco, seguidor de Andrés Vesalio, y la escuela de los calculatores —promotores de la renovación matemática y física— a la que pertenecían Pedro Ciruelo, Juan de Celaya y Domingo de Soto. El descubrimiento de América estimuló avances, tanto en historia natural (con José de Acosta y Gonzalo Fernández de Oviedo) como en náutica (con Pedro de Medina, Martín Cortés y Alonso de Santa Cruz). Después de que Felipe II prohibiera el estudio en el extranjero, la ciencia española entró en una fase de decadencia y neoescolasticismo de la cual no saldría hasta finales del siglo XVII, con el trabajo de los llamados novatores. Este grupo promovía semiclandestinamente las nuevas ideas de Newton y William Harvey, y a él pertenecían, entre otros, Juan Caramuel y Lobkowitz, Juan de Cabriada y Antonio Hugo de Omerique, cuya obra Analysis Geometrica (1698) atrajo el interés de Newton. En la misma época desde Nueva España, Diego Rodríguez comentó los hallazgos de Galileo. El sistema newtoniano, todavía prohibido por la Iglesia, se difundió ampliamente en el mundo hispano del siglo XVIII, a partir de Jorge Juan y Antonio de Ulloa (socios del francés Charles de La Condamine en su expedición geodésica a los Andes) en la península Ibérica, José Celestino Mutis en Nueva Granada y Cosme Bueno en Perú. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 El otro pilar de la modernización científica de la Ilustración fue Linneo, cuya nomenclatura binomial fascinó a toda una generación de botánicos europeos, estimulando nuevas exploraciones. En España, Miguel Barnades y más tarde sus discípulos Casimiro Gómez Ortega y Antonio Palau Verdera enseñaron la nueva sistemática botánica. El siglo XVIII fue la época de las expediciones botánicas y científicas al Nuevo Mundo, entre las que destacaron la de Mutis (corresponsal de Linneo) a Nueva Granada, la de Hipólito Ruiz y José Pavón a Perú, la de José Mariano Mociño y Martín de Sessé a Nueva España, y la de Alejandro Malaspina alrededor del globo. También en las colonias la ciencia floreció en instituciones como el Real Seminario de Minas de México, el Observatorio Astronómico de Bogotá o el Anfiteatro Anatómico de Lima. Las Guerras Napoleónicas y de Independencia interrumpieron el avance de la ciencia tanto en la península Ibérica como en Latinoamérica. En Espãna la recuperación fue muy lenta; la vida científica desapareció prácticamente hasta la entrada de nuevas ideas —el darwinismo en primer lugar— como secuela de la Revolución de 1868 y la I República. En esta renovación científica desempeñó un papel fundamental el neurólogo Santiago Ramón y Cajal, primer premio Nobel español (en 1906 compartió el Premio Nobel de Fisiología y Medicina con el médico italiano Camillo Golgi por la estructura del sistema nervioso); también intervinieron José Rodríguez de Carracido en química, Augusto González de Linares en biología, José Macpherson en geología y Zoel García Galdeano en matemáticas. En América Latina pueden referirse como representativas de la renovación científica del siglo XIX una serie de instituciones positivistas: en México, la Sociedad de Historia Natural (1868), la Comisión Geográfico-Exploradora (1877) o la Comisión Geológica (1886); en Argentina, el Observatorio Astronómico (1882), el Museo de Ciencias Naturales (1884), la Sociedad Científica Argentina (1872), el Observatorio de Córdoba (1870), dirigido por el estadounidense Benjamin Gould, y la Academia de las Ciencias de Córdoba (1874); por último en Brasil, la Escuela de Minas de Ouro Preto, el Servicio Geológico de São Paulo y el Observatorio Nacional de Río de Janeiro. Gracias al empuje que el Premio Nobel de Ramón y Cajal dio a la ciencia en general, en 1907 el gobierno español estableció la Junta para la Ampliación de Estudios para fomentar el desarrollo de la ciencia, creando becas para el extranjero y, algo más tarde, una serie de laboratorios. Cuando Pío del Río Hortega se instaló en el laboratorio de histología establecido por la Junta en la Residencia de Estudiantes de Madrid, se convirtió en el primer investigador profesional en la historia de la ciencia española. El centro de innovación en ciencias físicas fue el Instituto Nacional de Física y Química de Blas Cabrera, que a finales de la década de 1920 recibió una beca de la Fundación Rockefeller para construir un nuevo y moderno edificio. Allí trabajaron Miguel Angel Catalán, que realizó importantes investigaciones en espectrografía, y el químico Enrique Moles. En matemáticas el centro innovador fue el Laboratorio Matemático de Julio Rey Pastor, cuyos discípulos ocuparon prácticamente la totalidad de cátedras de matemáticas de España. Muchos de ellos fueron becados en Italia con Tullio Levi-Civita, Vito Volterra, Federigo Enriques y otros miembros de la gran escuela italiana, cuyo manejo del cálculo tensorial les había asociado con la relatividad general de Einstein. Rey Pastor fue un impulsor de la visita que Einstein realizó a España en 1923, en la que el físico alemán fue recibido sobre todo por matemáticos ya que la física estaba mucho menos desarrollada. En biomedicina, además de la neurohistología, adquirió relevancia la fisiología, dividida en dos grupos: el de Madrid, regido por Juan Negrín, quien formó al futuro premio Nobel Severo Ochoa, y el de Barcelona, dirigido por August Pi i Sunyer. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Durante la década de 1920 ambos grupos trabajaron en la acción química de las hormonas, sobre todo de la adrenalina. En América Latina la fisiología, al igual que en España, ocupaba el liderazgo en las ciencias biomédicas. Los argentinos Bernardo Houssay y Luis Leloir ganaron el Premio Nobel en 1947 y 1970 respectivamente; fueron los primeros otorgados a científicos latinoamericanos por trabajos bioquímicos. En física, distintos países consideraron que la física nuclear era el camino más práctico hacia la modernización científica, debido a la facilidad para obtener aceleradores de partículas de países europeos o de Norteamérica. No obstante, la física nuclear comenzó por su mínimo coste con el estudio de los rayos cósmicos. En la década de 1930, los brasileños Marcello Damy de Souza y Paulus Aulus Pompéia descubrieron el componente penetrante o ‘duro’ de los rayos cósmicos; en 1947 César Lattes, investigando en el Laboratorio de Física Cósmica de Chacaltaya (Bolivia), confirmó la existencia de los piones (véase Física: Partículas elementales). También la genética resultó ser un campo de investigación fructífero en América Latina. En 1941 el genetista estadounidense de origen ucraniano Theodosius Dobzhansky emprendió el primero de sus viajes a Brasil donde formó a toda una generación de genetistas brasileños en la genética de poblaciones. Su objetivo era estudiar las poblaciones naturales de Drosophila en climas tropicales para compararlas con las poblaciones de regiones templadas que ya había investigado. Descubrió que las poblaciones tropicales estaban dotadas de más diversidad genética que las templadas y, por lo tanto, pudieron ocupar más ‘nichos’ ecológicos que éstas. Tanto en España como en América Latina la ciencia del siglo XX ha tenido dificultades con los regímenes autoritarios. En la década de 1960 se produjo en Latinoamérica la llamada ‘fuga de cerebros’: en Argentina, por ejemplo, la Facultad de Ciencias Exactas de la Universidad de Buenos Aires perdió más del 70% del profesorado debido a las imposiciones del gobierno contra las universidades. Bajo la dictadura militar de la década de1980, los generales expulsaron de este país a los psicoanalistas, y el gobierno apoyó una campaña contra la ‘matemática nueva’ en nombre de una idea mal entendida de la matemática clásica. En Brasil, bajo la dictadura militar de la misma época, un ministro fomentó la dimisión de toda una generación de parasitólogos del Instituto Oswaldo Cruz, dando lugar a lo que se llamó ‘la masacre de Manguinhos’. Comunicación científica A lo largo de la historia el conocimiento científico se ha transmitido fundamentalmente a través de documentos escritos, algunos de los cuales tienen una antigüedad de más de 4.000 años. Sin embargo, de la antigua Grecia no se conserva ninguna obra científica sustancial del periodo anterior a los Elementos del geómetra Euclides (alrededor del 300 a.C.). De los tratados posteriores escritos por científicos griegos destacados sólo se conservan aproximadamente la mitad. Algunos están en griego, mientras que en otros casos se trata de traducciones realizadas por eruditos árabes en la edad media. Las escuelas y universidades medievales fueron los principales responsables de la conservación de estas obras y del fomento de la actividad científica. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Sin embargo, desde el renacimiento esta labor ha sido compartida por las sociedades científicas; la más antigua de ellas, que todavía existe, es la Accademia dei Lincei (a la que perteneció Galileo), fundada en 1603 para promover el estudio de las ciencias matemáticas, físicas y naturales. Ese mismo siglo, el apoyo de los gobiernos a la ciencia llevó a la fundación de la Royal Society en Londres (1662) y la Académie des Sciences en París (1666). Estas dos organizaciones iniciaron la publicación de revistas científicas, la primera con el título de Philosophical Transactions y la segunda con el de Mémoires. Durante el siglo XVIII, otras naciones establecieron academias de ciencias. En Estados Unidos, un club organizado en 1727 por Benjamin Franklin se convirtió en 1769 en la American Philosophical Society. En 1780 se constituyó la American Academy of Arts and Sciences, fundada por John Adams, quien fue el segundo presidente estadounidense en 1797. En 1831 se reunió por primera vez la British Association for the Advancement of Science, seguida en 1848 por la American Association for the Advancement of Science y en 1872 por la Association Française pour l’Avancement des Sciences. Estos organismos nacionales editan respectivamente las publicaciones Nature, Science y Compte-Rendus. El número de publicaciones científicas creció tan rápidamente en los primeros años del siglo XX que el catálogo Lista mundial de publicaciones científicas periódicas editadas en los años 1900-1933 ya incluía unas 36.000 entradas en 18 idiomas. Muchas de estas publicaciones son editadas por sociedades especializadas dedicadas a ciencias concretas. Desde finales del siglo XIX la comunicación entre los científicos se ha visto facilitada por el establecimiento de organizaciones internacionales, como la Oficina Internacional de Pesos y Medidas (1873) o el Consejo Internacional de Investigación (1919). Este último es una federación científica subdividida en uniones internacionales para cada una de las ciencias. Las uniones celebran congresos internacionales cada pocos años, cuyos anales suelen publicarse. Además de las organizaciones científicas nacionales e internacionales, muchas grandes empresas industriales tienen departamentos de investigación, de los que algunos publican de forma regular descripciones del trabajo realizado o envían informes a las oficinas estatales de patentes, que a su vez editan resúmenes en boletines de publicación periódica. Campos de la ciencia Originalmente el conocimiento de la naturaleza era en gran medida la observación e interrelación de todas las experiencias, sin establecer divisiones. Los eruditos pitagóricos sólo distinguían cuatro ciencias: aritmética, geometría, música y astronomía. En la época de Aristóteles, sin embargo, ya se reconocían otros campos: mecánica, óptica, física, meteorología, zoología y botánica. La química permaneció fuera de la corriente principal de la ciencia hasta la época de Robert Boyle, en el siglo XVII, y la geología sólo alcanzó la categoría de ciencia en el siglo XVIII. Para entonces el estudio del calor, el magnetismo y la electricidad se había convertido en una parte de la física. Durante el siglo XIX los científicos reconocieron que las matemáticas puras se distinguían de las otras ciencias por ser una lógica de relaciones cuya estructura no depende de las leyes de la naturaleza. Sin embargo, su aplicación a la elaboración de teorías científicas ha hecho que se las siga clasificando como ciencia. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Las ciencias naturales puras suelen dividirse en ciencias físicas y químicas, y ciencias de la vida y de la Tierra. Las principales ramas del primer grupo son la física, la astronomía y la química, que a su vez se pueden subdividir en campos como la mecánica o la cosmología. Entre las ciencias de la vida se encuentran la botánica y la zoología; algunas subdivisiones de estas ciencias son la fisiología, la anatomía o la microbiología. La geología es una rama de las ciencias de la Tierra. Sin embargo, todas las clasificaciones de las ciencias puras son arbitrarias. En las formulaciones de leyes científicas generales se reconocen vínculos que relacionan las ciencias entre sí. Se considera que estas relaciones son responsables de gran parte del progreso actual en varios campos de investigación especializados, como la biología molecular y la genética. Han surgido varias ciencias interdisciplinares, como la bioquímica, la biofísica, las biomatemáticas o la bioingeniería, en las que se explican los procesos vitales a partir de principios físico-químicos. Los bioquímicos, por ejemplo, sintetizaron el ácido desoxirribonucleico (ADN); la cooperación de biólogos y físicos llevó a la invención del microscopio electrónico, que permite el estudio de estructuras poco mayores que un átomo. Se prevé que la aplicación de estos métodos interdisciplinares produzca también resultados significativos en el terreno de las ciencias sociales y las ciencias de la conducta. Las ciencias aplicadas incluyen campos como la aeronáutica, la electrónica, la ingeniería y la metalurgia —ciencias físicas aplicadas— o la agronomía y la medicina —ciencias biológicas aplicadas. También en este caso existe un solapamiento entre las ramas. Por ejemplo, la cooperación entre la iatrofísica (una rama de la investigación médica basada en principios de la física) y la bioingeniería llevó al desarrollo de la bomba corazón-pulmón empleada en la cirugía a corazón abierto y al diseño de órganos artificiales como cavidades y válvulas cardiacas, riñones, vasos sanguíneos o la cadena de huesecillos del oído interno. Este tipo de avances suelen deberse a las investigaciones de especialistas procedentes de diversas ciencias, tanto puras como aplicadas. La relación entre teoría y práctica es tan importante para el avance de la ciencia en nuestros días como en la época de Galileo. Mitos modernos de la Historia de la Ciencia y de la Matemática Consideraremos las siguientes afirmaciones: • En la Antigüedad y en la Edad Media se creía que la Tierra es plana. Colón demostró que es redonda. En realidad, la mayor parte de las personas informadas saben perfectamente que este lugar común es falso, pero está muy extendido entre lo que podríamos llamar el hombre de la calle. Enfrentándose a esta idea preconcebida, Isaac Asimov escribió: Lo que demostró Colón es que no importa cuán equivocado estés, mientras tengas suerte. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Como todas las personas educadas de la Edad Media y de la Antigüedad, Colón sabía que la Tierra era redonda. Pero, al revés que los geógrafos portugueses, que estimaban su circunferencia en unos 40000 km, él creía que sólo medía unos 25000 (naturalmente, no medían en km). Por eso pensó que, si las Indias se encuentran a unos 20000 km de Europa Occidental por el camino del este, por el del oeste debían estar mucho más cerca, a unos 5000 km. Los portugueses rechazaron su oferta porque un viaje de 20000 km por mar abierto (con las cifras que ellos manejaban) estaba fuera del alcance de la náutica de la época. A pesar de todo, Colón lo intentó con ayuda de España, y tuvo la suerte de encontrar un continente desconocido a unos 5000 km de su punto de partida. Él siempre creyó haber demostrado sus teorías, pero los que tenían razón eran los portugueses. La redondez de la Tierra era ya conocida por los griegos, varios siglos antes de Cristo. Aristóteles (384-322 a.C.) resumió los argumentos principales que la demostraban: • Cuando un barco se aleja en cualquier dirección, lo primero que desaparece es el casco, luego las velas. Esto demuestra que la superficie del mar es curva. Además, el efecto no depende de la dirección del barco, así que el mar (y por tanto la Tierra) tiene la misma curvatura en todas direcciones. La única figura que posee esa propiedad es la esfera. Luego la Tierra es esférica. • Durante un eclipse de luna, la Tierra se interpone entre el sol y la luna, arrojando su sombra sobre ésta. La forma de la sombra es siempre circular, cualquiera que sea la posición del sol y de la luna en el momento del eclipse. Pero la esfera es la única figura que arroja siempre una sombra circular en cualquier dirección. Luego la Tierra es una esfera. • Al viajar en dirección hacia el norte o al sur, las constelaciones se desplazan. Algunas desaparecen a nuestras espaldas, otras nuevas surgen ante nosotros. Esto indica que la superficie de la Tierra es curva. No demuestra que sea una esfera, pero la unión de los tres argumentos tiene una fuerza de convicción abrumadora. Eratóstenes de Cirene (276-194 a.C.) fue aún más lejos. Basándose en la distinta inclinación de los rayos del sol durante el solsticio de verano en dos localidades de Egipto (Siena y Alejandría) dedujo la longitud de la circunferencia de la Tierra, estimándola en unos 25000 estadios (de 39000 a 45000 km). El valor real es próximo a los 40000 km. El cálculo de Eratóstenes fue la causa de que los geógrafos portugueses rechazaran los planes de Colón. Sólo la gente ignorante creía, durante la Edad Media, la leyenda de que la Tierra es plana y los barcos que llegaran a su extremo se caerían. En la Divina Comedia, Dante da por supuesta la redondez de la Tierra. Coloca al Purgatorio en una isla situada en las antípodas de Jerusalén (viene a caer en medio del Pacífico, un poco al sur de la islas Tubuai). El infierno, en cambio, es un cono que penetra hasta el centro de la Tierra, que coincide con su vértice. Al llegar allí, Dante introduce un sorprendente efecto de ciencia-ficción: Para pasar al otro hemisferio, Dante y Virgilio deben descender agarrándose a los pelos de Satanás, que C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 está hundido en el hielo en el mismísimo centro de la Tierra. Pero en el momento de pasar por él, tienen que darse la vuelta, porque la dirección de la gravedad se ha invertido. • En la Antigüedad y en la Edad Media creían que la Tierra es muy grande. La Astronomía moderna ha demostrado que es infinitesimal, comparada con el universo. Esta leyenda está más extendida que la anterior, y muchas personas educadas la creen. En realidad, es tan falsa como la otra. Dos siglos antes de Cristo, Arquímedes (287-212 a.C.) escribió un libro, El Arenario, en el que describe su intento de calcular cuestiones tan modernas como el número de partículas del universo y la distancia de las estrellas (en su tiempo se creía que todas las estrellas fijas estaban situadas a la misma distancia de nosotros). Para trabajar con números tan grandes, se vio obligado a idear su propio sistema de numeración, detallado en ese libro. Transformado a las medidas que hoy utilizamos, su resultado es asombrosamente exacto: las estrellas estarían a una distancia aproximada de un año-luz. Hoy sabemos que la más próxima (alfa-centauro C) se encuentra a 4,27 años-luz, lo que indica que Arquímedes, en su primer intento, acertó al menos el orden de magnitud. Los cálculos de Arquímedes eran conocimiento común de todos los eruditos de la antigüedad. Claudio Ptolomeo (100-170) escribió en su He Mathematik Syntaxis (más conocido por su nombre árabe, Almagesto): La Tierra, en relación con la distancia de las estrellas fijas, no tiene tamaño apreciable y debe considerarse como un punto matemático (Libro I, Capítulo 5). Recuérdese que el Almagesto fue el texto estándar de Astronomía durante toda la Edad Media. El mito, por tanto, cae por tierra. • En la Antigüedad y en la Edad Media creían que la Tierra está en el centro del universo y, por tanto, que es el astro más importante del cosmos. Copérnico, al quitarle el lugar central, le quitó también su importancia. Este mito ha alcanzado una propagación casi universal, incluso en ambientes científicos e históricos, a pesar de que es tan falso como los anteriores. No existen referencias antiguas o medievales en las que pueda basarse. Por el contrario, el desprecio de la Tierra y de las actividades de sus habitantes, al considerarla en el ámbito más extenso del cosmos, es uno de los lugares comunes de la literatura de aquellas épocas. Citemos algunos ejemplos: • Cicerón, en su Somnium Scipionis, hace emprender a Escipión un viaje por las esferas celestes. Al mirar hacia la Tierra desde las alturas y verla tan pequeña (ver el mito anterior), Escipión se asombra por la importancia que se da en aquella mota a cosas tan ridículas como el Imperio Romano (que ni siquiera es visible desde donde él está). • Lucano, en La Farsalia, presenta una situación parecida. • Dante, en la Divina Comedia, realiza también un viaje por las esferas celestes de Ptolomeo, en las que sitúa el Paraíso. Al llegar a la esfera de Saturno, se vuelve a mirar a la Tierra, que como de costumbre le parece pequeñísima y digna de menosprecio, que expresa en las palabras (Paradiso, 22:133-135): C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Col viso ritornai per tutte quante le sette spere, e vidi questo globo tal, ch'io sorrisi del suo vil sembiante. Dante presenta en Paradiso una estructura dual del cosmos. En el mundo material, formado por las nueve esferas ptolemaicas, un astro es tanto menos importante cuanto más cerca del centro se encuentra. La Tierra, por consiguiente, ocupa el lugar ínfimo en razón de su posición (nótese que esta interpretación es justamente la opuesta del mito). En el mundo dual del empíreo (la morada de Dios) el centro (Dios) es lo más importante, y las nueve esferas que le rodean (correspondientes a las nueve especies angélicas) son tanto más señaladas cuanto más cercanas al centro. • La Ciencia ha demostrado que Dios no existe; que el hombre no tiene alma; que no hay vida después de la muerte. La Ciencia no puede demostrar ninguna de esas cosas. Todas ellas quedan fuera del método científico (del que hablaremos más adelante). Naturalmente, este mito ha sido difundido por personas opuestas a la Religión, y no es más que una expresión de lo que la lengua inglesa llama wishful thinking, de difícil traducción al español. En 1917 se realizó una encuesta sobre las creencias religiosas de las personas de los Estados Unidos de América dedicadas al cultivo de la Ciencia. El resultado fue de, aproximadamente, un 50% de creyentes. De aquí se predijo que, a lo largo del siglo XX, las creencias religiosas de los científicos desaparecerían por completo. En 1997, exactamente ochenta años después, se repitió la encuesta. El resultado fue muy parecido al de la anterior: alrededor de un 50% de científicos estadounidenses son creyentes. En consecuencia, la predicción de 1917 ha fracasado. Sin embargo, los comentaristas de la nueva encuesta aseguran que este resultado hace prever que las creencias religiosas de los científicos desaparecerán durante el siglo XXI, lo que prueba que el hombre puede tropezar dos veces en la misma piedra. Una división de opiniones al 50% en una cuestión ajena a la ciencia, parece un resultado razonable, incluso predecible. • Sólo utilizamos el 10% del cerebro. Este neuromito ha recibido mucha publicidad durante el siglo XX, favorecido por el patrocinio de los cursos Dale Carnegie y el apoyo de figuras tan espectaculares como Albert Einstein. Sostiene que nuestro cerebro está infrautilizado y que es capaz de realizar esfuerzos diez veces superiores a los normales, lo que parece alentar las teorías de los defensores de la existencia de potencialidades humanas ocultas, como la telepatía, la clarividencia o la psicocinética. En realidad, el mito surgió como consecuencia de un malentendido. Allá por los años treinta, los neurólogos descubrieron que las especies con sistema nervioso más complejo (entre las que destaca el hombre) dedican una menor proporción de la masa cerebral a las funciones sensorio-motoras. Se aplicó el nombre de córtex silencioso a las C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 áreas cerebrales dedicadas a otras actividades, entre las que destacan el lenguaje y el pensamiento abstracto. El título de silencioso hizo pensar equivocadamente a algunos no expertos (como Einstein) que esa parte del cerebro estaba desocupada. Experimentos recientes realizados con tomografía de emisión de positrones han demostrado que en el cerebro humano no existen zonas infrautilizadas. El mito del Progreso Indefinido El concepto de Progreso es relativamente moderno. Durante la Edad Media y el Renacimiento dominó la teoría de que los grandes maestros de la Antigüedad eran insuperables. Cualquier teoría nueva tenía que apoyarse en una demostración de que aquello, aunque mal entendido, había sido dicho antes por Aristóteles, Euclides, o la autoridad de turno. De aquí el poco interés de los pensadores de aquella época por la originalidad y lo que hoy llamamos "derechos de autor", siendo frecuente que las obras filosóficas o literarias fuesen falsamente atribuidas a los maestros de antaño. Francis Bacon (1561-1626) fue uno de los primeros en lanzar la idea revolucionaria de que los grandes hombres del pasado no sabían necesariamente más que el hombre actual, que abrió camino al concepto del Progreso, apoyado posteriormente por René Descartes (1596-1650) y Bernard de Fontenelle (1657-1757), que fue el primero en afirmar que, desde el punto de vista biológico, los pueblos antiguos y modernos son esencialmente iguales. Durante el siglo XVIII surgió la teoría del Progreso Indefinido, que invierte la idea medieval de un pasado mejor y sostiene que el futuro es siempre superior al presente. El Abbé St. Pierre (16581753), Turgot (1727-1781) y, sobre todo, Condorcet (1743-1794) pueden considerarse los padres de la idea. El último llegó a dividir la Historia en diez etapas sucesivas. La décima, en la que nos encontramos, es la de la ciencia, el racionalismo y la revolución, que abrirá paso a una era de prosperidad, tolerancia e ilustración. (La Utopía siempre está a la vuelta de la esquina). En el siglo XIX, la teoría del Progreso Indefinido pareció haberse impuesto. Auguste Comte (1798-1857) insiste sobre las etapas sucesivas de Condorcet, que reorganiza en tres: la teológicomilitar, la metafísico-jurídica y la científico-industrial. Naturalmente, ninguna de las etapas tiene vuelta atrás. Nuestra llegada a la era científica es definitiva. El auge del evolucionismo, a partir de mediados del siglo XIX, dio una nueva expresión al principio del Progreso Indefinido, que pasó a definirse en términos biológicos: La evolución biológica es un proceso que conduce indefectiblemente a más y más complejidad. La idea había sido ya entrevista, treinta años antes, por el movimiento romántico. John Keats (1795-1821) había escrito en su poema Hyperion (1820), publicado casi cuatro décadas antes que El origen de las especies de Darwin: "I't is the eternal law that first in beauty should be first in might." Las ideas de Comte se fundieron con las de Darwin en la obra de Herbert Spencer (18201903) y Karl Marx (1818-1903), que sostienen que la evolución social es automática e inevitable. Como sus antecesores, Marx divide la Historia en varias etapas sucesivas y progresivas (tribalismo, C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 régimen esclavista, feudalismo, capitalismo y socialismo) y prevé como inevitable el paso a la última a través de la dictadura del proletariado y la sociedad sin clases. En una línea paralela, pero estrictamente biológica, podemos colocar la teoría de la Ortogénesis de Karl Wilhelm von Nägely (1817-1891), para quien la evolución biológica es un proceso con una dirección predeterminada, empujado por alguna acción externa o interna no muy bien definida (como la fuerza vital de Henri Bergson). Esta teoría tuvo mucho ascendiente hasta bien entrado el siglo XX, y aún se nota su influencia en la obra de Pierre Teilhard de Chardin. En su forma evolucionista, el principio del Progreso Indefinido se plasmó, a principios de este siglo, en una forma mítica de indudable atractivo, que aunque prácticamente desterrada del acervo científico, ha ganado la imaginación popular. En su forma literaria, el mito se plasmó en las obras Back to Metuselah (1922) de George Bernard Shaw (1856-1950) y The outline of History (1920) de H.G.Wells (1866-1946). Presenta la evolución como una lucha permanente por la existencia, en la que las especies aparentemente más débiles sobreviven frente a enemigos monstruosos: ¿Quién podría prever el triunfo de los procordados durante la explosión cámbrica? ¿O el de los peces crosopterigios (de los que surgieron los vertebrados terrestres) frente a los teleósteos? ¿O el de los mamíferos frente a los reptiles gigantes? ¿O el del hombre frente a un entorno hostil? Pero en todos esos casos la inteligencia (el progreso) acaba venciendo a la fuerza bruta. El hombre ocupa al fin su papel en la cumbre: domina el mundo, se abre ante él una etapa indefinida de progreso científico. Sin embargo, en este punto el mito introduce un final verdaderamente grandioso: nada menos que el crepúsculo de los dioses, de la epopeya germánica de los Eddas y los Nibelungos. El aumento insoslayable de la entropía nos lleva hacia un final catastrófico. El cosmos terminará en una conflagración térmica o en una desintegración helada. Nada que podamos hacer logrará detenerlo. El Progreso Indefinido está destinado a la destrucción final. Reacciones contra el Progreso Indefinido Pero el mismo siglo XX que vio nacer la formulación épica del mito evolucionista iba a ser testigo de las primeras reacciones en su contra: • Los biólogos de la escuela neodarwinista se opusieron con todas sus fuerzas a la idea de una evolución dirigida, introduciendo el azar y la Estadística como elemento y herramienta fundamentales para el estudio de esta ciencia. La evolución no resulta ser, después de todo, un proceso de complejificación creciente inevitable. Los retrocesos, las detenciones y la contingencia están a la orden del día. En palabras del biólogo británico J.B.S.Haldane, por cada caso de progreso hay diez de degeneración. • Un filósofo, Oswald Spengler (1880-1936) anunció que el Progreso Indefinido de nuestra civilización no sólo podría detenerse algún día, sino que, de hecho, está ya detenido. Su obra Decadencia de Occidente (1923) tuvo una gran influencia en el ambiente depresivo de la primera postguerra mundial. • Un historiador, Arnold Toynbee (1889-1975) sostuvo en su monumental Estudio de la Historia que las civilizaciones nacen, crecen, se esclerotizan, y mueren (o se transforman en fósiles C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 vivientes), aunque pueden dejar descendencia. El Progreso Indefinido resulta así ser un fenómeno real, pero estadístico, difícilmente medible, excepto a distancia, comparable al avance de un automóvil como consecuencia del de las ruedas: un punto sobre la superficie de la rueda (la civilización) sólo sube y baja. El coche, sin embargo, avanza. • Un antropólogo, Alfred Louis Kroeber (1876-1960) sostuvo, en su Configurations of Culture Growth, que los genios no suelen nacer solos, sino que forman configuraciones de grandes hombres, precedidas por precursores y seguidas por decadencias. De nuevo, frente al Progreso Indefinido, tenemos una infinita sucesión de altibajos. • Un sociólogo, Pitirim Alexandrovitch Sorokin (1889-1968) acumuló datos cuantitativos en su Dinámica Social y Cultural, que sugieren que las actividades culturales intelectuales (ciencia y filosofía, principalmente) forman ciclos de larga duración (del orden de dos mil años) en los que alternan fases intuicionistas (con predominio de la filosofía y la religión) con fases sensitivas (en las que prepondera la ciencia). Actualmente nos encontramos en una de las últimas, pero se puede prever que, más pronto o más tarde, esta fase terminará, como terminaron todas sus predecesoras. La situación de la Ciencia moderna ¿Existen indicios que nos hagan pensar que la evolución de la Ciencia occidental moderna, que se ha prolongado triunfalmente durante cinco siglos en un ascenso siempre creciente, esté próxima a detenerse o incluso a retroceder? ¿Tienen razón los críticos de la teoría del Progreso Indefinido? Algunos análisis cualitativos y cuantitativos pueden arrojar luz sobre estas cuestiones. • Una cuantificación sencilla de la evolución de la ciencia grecorromana y medieval nos demuestra que, en los veinte siglos que van desde el siglo VI antes de Cristo al XIV después de Cristo, hubo varias configuraciones sucesivas y casi independientes de desarrollo científico, con picos bien marcados en el siglo V antes de Cristo, el siglo II después de Cristo, y el siglo XIII. Estos picos fueron seguidos por decadencias reales, lo que confirma la teoría oscilatoria de los avances científicos contra la del Progreso Indefinido. La cuantificación ha sido obtenida asignando pesos a los científicos en función del número de líneas de sus biografías en enciclopedias de varios países. • Una cuantificación semejante realizada sobre los datos de la ciencia occidental moderna nos presenta una situación parecida: el avance continuo y siempre hacia más y más descubrimientos científicos es ilusorio. Hemos tenido ya algunas cumbres bien marcadas en los siglos XVII y XVIII, seguidos por descensos apreciables, aunque el enorme desarrollo científico de los siglos XIX y XX nos ha hecho perder de vista la realidad. El futuro no está claro: de hecho, aunque nuestros datos indican un descenso significativo durante la segunda mitad del siglo XX, el efecto podría deberse a la cercanía, que hace perder perspectiva, y al hecho de que los científicos jóvenes, nacidos después de 1950, aún no han dado de sí todo lo que podrían (o aún no se les ha reconocido). C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 • La descomposición por países de la cuantificación de la ciencia occidental hace resaltar aún más el carácter configurativo y oscilatorio de estos movimientos culturales en los cuatro países más importantes en este campo. Alemania ha tenido no menos de cinco cumbres desde el siglo XV; Gran Bretaña presenta otros cinco máximos bien marcados, Francia cuatro. En cuanto a los Estados Unidos, se han convertido durante el siglo XX en el país dominante, pues más de la mitad del esfuerzo científico de nuestra civilización se apoya actualmente en él. • Una medida interesante de la evolución del progreso científico durante el siglo XX viene dada por los premios Nobel, que recompensan los avances más significativos en los campos de la Física, la Química, la Fisiología y la Medicina. De la cuantificación realizada se deducen algunas tendencias preocupantes, como el envejecimiento progresivo de los científicos que los han recibido. Se ha pasado de una media de edad de 47 años a los 60 de la década de los noventa. En contraposición, el número de premios Nobel recibidos por personas con menos de 40 años ha descendido desde nueve en los años treinta y cincuenta, hasta cero en los noventa. Sirva de señal de esta evolución el hecho de que aún no ha recibido un premio Nobel ninguna persona nacida después de 1950. • Existe una clara tendencia en la ciencia moderna hacia la desaparición de los genios. En siglos pasados, ciertas personas destacaron muy por encima de sus contemporáneos y pasaron al acervo popular como nombres mundialmente conocidos. Citemos a Copérnico, Galileo, Descartes, Newton, Linneo, Franklin, Gauss, Darwin, Pasteur, Edison, Ramón y Cajal, Freud, Madame Curie, Einstein y Heisenberg, entre muchos otros. En los últimos tiempos, este fenómeno ha desaparecido. La única figura que ha obtenido modernamente una fama comparable a la de los mencionados es la de Stephen Hawking, que la debe en parte a razones ajenas a sus logros científicos. La misma tendencia se revela en la distribución de los premios Nobel individuales, que ha descendido continuamente desde 25 en la primera década del siglo XX hasta 6 en la última. El desarrollo científico se está polarizando alrededor de grupos de trabajo integrados, en lugar de grandes personalidades. No está claro qué se puede deducir de esta tendencia. No es evidente que esto deba dar lugar a una detención futura de dicho desarrollo. Pero existen en la actualidad otros síntomas preocupantes. Desconfianza en la Ciencia Se está extendiendo cada vez más en el hombre de la calle una desconfianza creciente hacia los científicos y los avances que realizan. A mediados de este siglo era frecuente (especialmente en la literatura de ciencia-ficción) la previsión de que en el futuro la sociedad podría estar gobernada por científicos, como una forma moderna de La República de Platón. Esta idea ha desaparecido casi por completo. La desconfianza en la Ciencia se debe a varias causas, que al actuar conjuntamente han empeorado la situación: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 • La ignorancia. La educación científica es claramente insuficiente. Estudios estadísticos realizados en los Estados Unidos estiman en poco más de un 5% la proporción de la población adulta que puede considerarse científicamente alfabetizada (es decir, que son capaces de comprender las cuestiones más elementales). Existen muchas razones para ello: la ciencia se enseña en clase como un ejercicio académico desligado de la vida real. Se aprenden procedimientos, pero no se enseña a aplicarlos en la práctica cotidiana, por ejemplo, en la detección de las falacias estadísticas con que los gobiernos y la prensa nos regalan todos los días (véase 200% of nothing, por A.K.Dewdney, Wiley, 1993). • Poca comunicación entre los científicos y el público. La Ciencia siempre ha resultado esotérica para la mayor parte de la gente. La divulgación científica a través de los medios de comunicación ha realizado un enorme esfuerzo durante los años ochenta y principios de los noventa, pero su década de oro parece haber terminado: los suplementos científicos de los periódicos de mayor difusión se acortan o desaparecen, en televisión sólo quedan documentales sobre los seres vivos. • Otro problema importante es el retraso de años entre la publicación de los descubrimientos científicos y su aplicación práctica. Grandes titulares anuncian avances espectaculares en la curación del cáncer o de las enfermedades genéticas, que luego desaparecen por completo durante largo tiempo de los medios de comunicación, lo que mueve al hombre de la calle a sacar la conclusión de que los supuestos descubrimientos científicos no valían para nada. Este efecto empeora porque el ansia por publicar, concomitante a la situación actual de las carreras científicas, mueve a muchos a hacer públicos sus descubrimientos antes de tiempo y en medios no estándar (recuérdese el caso de la fusión fría). • Los peligros de la Ciencia. Durante el siglo XX, la Ciencia ha dejado de ser, en la mentalidad popular, la panacea que resolvería todos nuestros problemas, pasando a convertirse en uno de los monstruos que amenazan nuestra supervivencia. Primero ha sido la carrera de armamentos, que llevó a la acumulación de armas de destrucción masiva suficientes para acabar varias veces con la vida en la Tierra. Después vino la ingeniería genética, con la amenaza de manipulación de personas y generaciones inherente en algunos de sus descubrimientos, así como del mal uso de los conocimientos obtenidos (clonación, patentes, discriminación genética). La Medicina también ha contribuido al desprestigio científico con su incesante cambio de modas y consejos: lo que ayer era malo para la salud, hoy es bueno, y viceversa. Y no hablemos de los experimentos sobre animales y, sobre todo, seres humanos, realizados a veces en condiciones inaceptables. Amenazas a la Ciencia Como consecuencia de esto, se está extendiendo cada vez más un estado de opinión desfavorable a la Ciencia en general, que comienza a pasar al ataque contra las bases fundamentales del conocimiento. Entre los movimientos anticientíficos más extendidos en la actualidad destacan los siguientes: C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 • El ecologismo radical, que se opone al avance científico y promueve la renuncia a los descubrimientos científico-técnicos y el regreso a un estilo más natural de vida, sin comprender que son esos descubrimientos los que hicieron posible el aumento de la población mundial. Si retrocediésemos al nivel técnico de hace dos o tres siglos, la Tierra sería incapaz de mantenernos. El resultado sería la guerra total. • El feminismo radical, que sostiene que la Ciencia actual es machista y que hay que destruirla y empezar de nuevo para darle un carácter más feminista. Este es uno de los muchos movimientos que, al negar la existencia de la verdad objetiva, mina los fundamentos de la investigación científica y podría llevarnos (si tuviera éxito) directamente a la catástrofe. Emparentados con él están diversas formas de corrección política que aplican las mismas ideas a razas o minorías no privilegiadas y que abogan por la destrucción, en lugar de la integración. • El Constructivismo, doctrina filosófica que se ha desarrollado mucho durante la segunda mitad del siglo XX, niega la existencia de la verdad objetiva y propone que todos los descubrimientos de la Ciencia son meras construcciones sociales. En circunstancias distintas se habrían podido obtener resultados opuestos. Aunque, como todos los extremismos, esta doctrina se apoya en un principio válido (la influencia de la sociedad sobre la dirección que toma la investigación científica), al aplicarlo a los hechos y negar la existencia de la verdad, el Constructivismo a ultranza se convierte en una teoría falaz y peligrosa. • La epistemología democrática trata de aplicar los principios de la democracia a la investigación científica. Pero la Ciencia nunca ha sido demócrata, ni puede serlo. La opinión de la mayoría no tiene ninguna validez per se, porque siempre puede cambiarse con razonamientos. Mil ejemplos de la historia nos demuestran que una sola persona, enfrentada a todo el resto de sus colegas, puede tener finalmente razón. Muchos de los movimientos anteriores, y otros semejantes, se enfrentan directamente con la razón y el método científico, que se ha empleado con resultados espectaculares desde principios del siglo XVII. Muchas pseudociencias se han apoderado de la imaginación popular, reciben el apoyo masivo de los medios de comunicación y están introduciendo cabezas de puente incluso en las universidades: • La Parapsicología, en sus dos versiones principales: la percepción extrasensorial (ESP, clarividencia, precognición, telepatía) y la psicocinética. • La Astrología, que a finales del siglo XX está alcanzando un auge sin precedentes desde los tiempos de los Imperios Romano y Chino. • La investigación del fenómeno ovni (Ufología). • El creacionismo antievolucionista, que afortunadamente es casi desconocido a este lado del Atlántico. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Frente a estos ataques, el método científico sólo puede defenderse acudiendo a sus éxitos probados, que se basan en seis principios fundamentales: • Honradez: la evidencia debe evaluarse sin engaños. • Repetibilidad: los resultados de los experimentos deben poder repetirse. • Refutabilidad: debe ser posible idear evidencias que prueben que una afirmación es falsa. Los parapsicólogos rechazan este principio cuando afirman que sus experimentos no funcionan cuando está presente algún escéptico, con lo que es imposible refutarlos. • Totalidad: debe considerarse toda la evidencia disponible. No sólo los casos favorables, sino también los desfavorables. Ejemplo: Ayer pensé en Fulano y al poco rato me llamó por teléfono. Hay que saber también cuántas veces pensé en Fulano y no me llamó por teléfono, y cuántas veces me llamó Fulano sin que yo hubiera pensado en él. Sólo con esos tres datos se puede estimar si la coincidencia entra en las previsiones del cálculo de probabilidades. • Suficiencia: la prueba de una afirmación es responsabilidad del que afirma. Los testimonios personales no son pruebas científicas. Las personas se equivocan o pueden mentir. El fraude científico no es desconocido, aunque sí poco frecuente. • Lógica: los argumentos deben ser válidos (la conclusión se deduce correctamente de las premisas) y sólidos (las premisas son verdaderas). BIBLIOGRAFÍA - Anglin, W. S. (1991). Mathematics: A concise history and philosophy. Springer. - Boyer, C. (1978). Historia de la Matemática. Corpa. - Hawking, S. (1988). La historia del tiempo. Círculo de lectores. Barcelona. - Narlikar, J. (1997). Fenómenos violentos en el universo. Alianza Universidad. Madrid. - Periago Lorente, M. (1987). Vida de Pitágoras. Madrid. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 LA LOPD EN LA EMPRESA. PLAZOS, SANCIONES E INDEMNIZACIONES JOSE ALBERTO PRO ESTEBAN 1. PLAZOS DE IMPLANTACIÓN, SANCIONES E INDEMNIZACIONES 1.1 Plazos de implantación de las medidas de seguridad. Los plazos de implantación están recogidos en la Disposición Transitoria Segunda del RD 1720/2007 de 21 de diciembre, reguladora de la LOPD. Los ficheros que existiesen en la fecha de implantación de entrada en vigor del RD 1720/2007, deberán implantar: 1. En el plazo de un año desde la entrada en vigor del RD las medidas de seguridad de nivel medio exigible a los siguientes ficheros: - Ficheros de los que sean responsables las entidades gestoras y servicios comunes de la Seguridad Social. Ficheros de los que sean responsables las mutuas de accidentes de trabajo y enfermedades profesionales de la Seguridad Social. Ficheros que contengan un conjunto de datos de carácter personal, y que ofrezcan una definición de las características o personalidad de los ciudadanos y permitan evaluar la personalidad o comportamiento de los mismos. 2. En el plazo de un año desde la entrada en vigor, las medidas de seguridad de nivel medio, y en el plazo de dieciocho meses las de nivel alto para: - Ficheros que contengan datos derivados de actos de violencia de género. Ficheros de los que sean responsables los operadores que presten servicios de comunicaciones electrónicas disponibles al público o exploten redes públicas de comunicaciones electrónicas, respecto a los datos de tráfico o datos de localización. Los ficheros automatizados, creados con posterioridad a la fecha de entrada en vigor del presente RD 1720/2007, deberán tener implantadas las medidas desde el día de su creación. Los plazos para implantar las medidas de seguridad en ficheros no automatizados que existan en la fecha de entrada en vigor del presente Real Decreto deberán implantar: - Las medidas de seguridad de nivel básico en el plazo de un año desde su entrada en vigor. Las medidas de seguridad de nivel medio en el plazo de dieciocho meses desde su entrada en vigor. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 - Las medidas de seguridad de nivel alto en el plazo de dos años desde su entrada en vigor. Los ficheros no automatizados, creados con posterioridad a la fecha de entrada en vigor del presente RD 1720/2007, deberán tener implantadas las medidas desde el día de su creación. 1.2 Infracciones y sanciones en la LOPD 1.2.1 Infracciones Las infracciones y sanciones se regulan en el Título VII de la LOPD. Tal y como se han visto podrán ser leves, graves o muy graves, y llevan asociadas la imposición de sanciones muy elevadas en los tramos altos de los rangos que tienen impuestos. El artículo 43 de la LOPD establece que la responsabilidad recaerá siempre sobre el responsable de los ficheros y los encargados de los tratamientos. Responderán a las infracciones a las que hayan incurrido personalmente. En los ficheros de titularidad pública, las infracciones cometidas podrán iniciar actuaciones disciplinarias por parte del Director de la Agencia de Protección de Datos. Esta medida de actuaciones disciplinarias y las medidas para que cesen o se corrijan los efectos de infracción, son las únicas actuaciones que prevé la Ley para este tipo de ficheros públicos. En el artículo 44 de la LOPD se establecen los siguientes tipos de infracciones: INFRACCIONES LEVES o No atender, por motivos formales, la solicitud del interesado de rectificación o cancelación de los datos personales objeto de tratamiento cuando legalmente proceda. o No proporcionar la información que solicite la Agencia de Protección de Datos en el ejercicio de las competencias que tiene legalmente atribuidas, en relación con aspectos no sustantivos de la protección de datos. o No solicitar la inscripción del fichero de datos de carácter personal en el Registro General de Protección de Datos, cuando no sea constitutivo de infracción grave. o Proceder a la recogida de datos de carácter personal de los propios afectados sin proporcionarles la información que señala el artículo 5 de la presente Ley. o Incumplir el deber de secreto establecido en el artículo 10 de esta Ley, salvo que constituya infracción grave. INFRACCIONES GRAVES o Proceder a la creación de ficheros de titularidad pública o iniciar la recogida de datos de carácter personal para los mismos, sin autorización de disposición general, publicada en el "Boletín Oficial del Estado" o Diario oficial correspondiente. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 o Proceder a la creación de ficheros de titularidad privada o iniciar la recogida de datos de carácter personal para los mismos con finalidades distintas de las que constituyen el objeto legítimo de la empresa o entidad. o Proceder a la recogida de datos de carácter personal sin recabar el consentimiento expreso de las personas afectadas, en los casos en que éste sea exigible. o Tratar los datos de carácter personal o usarlos posteriormente con conculcación de los principios y garantías establecidos en la presente Ley o con incumplimiento de los preceptos de protección que impongan las disposiciones reglamentarias de desarrollo, cuando no constituya infracción muy grave. o El impedimento o la obstaculización del ejercicio de los derechos de acceso y oposición y la negativa a facilitar la información que sea solicitada. o Mantener datos de carácter personal inexactos o no efectuar las rectificaciones o cancelaciones de los mismos que legalmente procedan cuando resulten afectados los derechos de las personas que la presente Ley ampara. o La vulneración del deber de guardar secreto sobre los datos de carácter personal incorporados a ficheros que contengan datos relativos a la comisión de infracciones administrativas o penales, Hacienda Pública, servicios financieros, prestación de servicios de solvencia patrimonial y crédito, así como aquellos otros ficheros que contengan un conjunto de datos de carácter personal suficientes para obtener una evaluación de la personalidad del individuo. o Mantener los ficheros, locales, programas o equipos que contengan datos de carácter personal sin las debidas condiciones de seguridad que por vía reglamentaria se determinen. o No remitir a la Agencia de Protección de Datos las notificaciones previstas en esta Ley o en sus disposiciones de desarrollo, así como no proporcionar en plazo a la misma cuantos documentos e informaciones deba recibir o sean requeridos por aquél a tales efectos. o La obstrucción al ejercicio de la función inspectora. o No inscribir el fichero de datos de carácter personal en el Registro General de Protección Datos, cuando haya sido requerido para ello por el Director de la Agencia de Protección de Datos. o Incumplir el deber de información que se establece en los artículos 5, 28 y 29 de esta Ley, cuando los datos hayan sido recabados de persona distinta del afectado. INFRACCIONES MUY GRAVES o La recogida de datos en forma engañosa y fraudulenta. o La comunicación o cesión de los datos de carácter personal, fuera de los casos en que estén permitidas. o Recabar y tratar los datos de carácter personal a los que se refiere el apartado 2 del artículo 7 cuando no medie el consentimiento expreso del afectado; recabar y tratar los datos referidos en el apartado 3 del artículo 7 cuando no lo disponga una ley o el afectado no haya consentido expresamente, o violentar la prohibición contenida en el apartado 4 del artículo 7. o No cesar en el uso ilegítimo de los tratamientos de datos de carácter personal cuando sea requerido para ello por el Director de la Agencia de Protección de Datos o por las personas titulares del derecho de acceso. o La transferencia temporal o definitiva de datos de carácter personal que hayan sido objeto de tratamiento o hayan sido recogidos para someterlos a dicho tratamiento, con destino a países C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 o o o o que no proporcionen un nivel de protección equiparable sin autorización del Director de la Agencia de Protección de Datos. Tratar los datos de carácter personal de forma ilegítima o con menosprecio de los principios y garantías que les sean de aplicación, cuando con ello se impida o se atente contra el ejercicio de los derechos fundamentales. La vulneración del deber de guardar secreto sobre los datos de carácter personal a que hacen referencia los apartados 2 y 3 del artículo 7, así como los que hayan sido recabados para fines policiales sin consentimiento de las personas afectadas. No atender, u obstaculizar de forma sistemática el ejercicio de los derechos de acceso, rectificación, cancelación u oposición. No atender de forma sistemática el deber legal de notificación de la inclusión de datos de carácter personal en un fichero. 1.2.2 Sanciones Al igual que las infracciones, las sanciones vienen recogidas en el Título VII de la LOPD. El tipo de sanción varía según sea la naturaleza jurídica del responsable del fichero que ha cometido la infracción, es decir, si es de titularidad pública o privada, ya que es sancionado de forma diferente. Si la sanción es sobre entidades privadas, las sanciones consisten en multas administrativas y según el caso la inmovilización de los ficheros. Si la sanción es sobre entidades públicas, éstas tendrán un régimen disciplinario y en los casos que proceda, la inmovilización de los ficheros. Según el art. 45: o Las infracciones leves serán sancionadas con multa de 601,01 a 60.101,21 euros. o Las infracciones graves serán sancionadas con multa de 60.101,21 a 300.506,05 euros. o Las infracciones muy graves serán sancionadas con multa de 300.506,05 a 601.012,21 euros. La cuantía de las sanciones se graduará atendiendo a la naturaleza de los derechos personales afectados, al volumen de los tratamientos efectuados, a los beneficios obtenidos, al grado de intencionalidad, a la reincidencia, a los daños y perjuicios causados a las personas interesadas y a terceras personas, y a cualquier otra circunstancia que sea relevante para determinar el grado de antijuridicidad y de culpabilidad presentes en la concreta actuación infractora. Si, en razón de las circunstancias concurrentes, se apreciara una cualificada disminución de la culpabilidad del imputado o de la antijuridicidad del hecho, el órgano sancionador establecerá la cuantía de la sanción aplicando la escala relativa a la clase de infracciones que preceda inmediatamente en gravedad a aquella en que se integra la considerada en el caso de que se trate. En ningún caso podrá imponerse una sanción más grave que la fijada en la Ley para la clase de infracción en la que se integre la que se pretenda sancionar. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 El Gobierno actualizará periódicamente la cuantía de las sanciones de acuerdo con las variaciones que experimenten los índices de precios. Sanciones sobre las Administraciones Públicas En el artículo 46 se establecen las sanciones de las Administraciones Públicas, que no dejan suponen multas administrativas. Es el Director de la Agencia de Protección de Datos el que propone dos tipos de actuaciones. - - Dictar una resolución en la que se propongan las siguientes medidas: Que cesen los efectos de los hechos infractores. Que se corrijan los efectos derivados de la infracción. Podrá proponer la iniciación de actuaciones disciplinarias contra los responsables del fichero y los encargados del tratamiento de los datos. Esta resolución se notificará al responsable del fichero, al órgano del que dependa jerárquicamente y a los afectados si los hubiera, además el Director de la Agencia comunicará al Defensor del Pueblo las actuaciones que efectúe y las resoluciones que dicte al amparo de los apartados anteriores. Potestad de inmovilización de ficheros La potestad de inmovilización de ficheros se recoge en el artículo 49 de la LOPD y en el artículo 121 del reglamento. Opera tanto en ficheros de titularidad pública como privada en las siguientes circunstancias. - Que se esté en presencia de infracciones muy graves. Utilización o cesión ilícita de datos personales que atenten gravemente contra el ejercicio de los derechos que la LOPD concede a los ciudadanos y al libre desarrollo de la personalidad que la Constitución y las leyes garantizan. El Director de la Agencia de Protección de Datos podrá proponer además de la sanción , mediante resolución motivada, la inmovilización de los ficheros de titularidad privada o pública. Éste procedimiento se realiza de la manera siguiente: - - El Director de la Agencia requiere a los responsables del fichero que cesen en la utilización o cesión ilícita de datos de carácter personal en el plazo improrrogable de tres días. En ese periodo, el responsable del fichero puede alegar contra el requerimiento para evitar la inmovilización del fichero. En el caso de incumplimiento del requerimiento, es decir, no se cesa en la utilización y cesión ilícita de los datos, se procederá a la inmovilización de los ficheros afectados con el fin de restaurar los derechos de los ciudadanos afectados. Procedimiento sancionador C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 En el artículo 48 se indica el procedimiento sancionador y se indica que se podrá llevar a cabo actuaciones previas con objeto de determinar si existen circunstancias que justifiquen el inicio de un procedimiento. Las actuaciones previas se llevarán a cabo de oficio por la Agencia de Protección de Datos y tendrán una duración máxima de doce meses a contar desde la denuncia. Se pueden iniciar por: - Iniciativa propia. Como consecuencia de la existencia de una denuncia. Por petición razonada de otro órgano. Las inspecciones podrán recabar cuanta información sea necesario: exhibición o envío de los documentos y datos en el lugar en que se encuentren depositados, inspección de equipos físicos y lógicos, requerir la ejecución de tratamientos y programas, etc. También podrán realizarse visitas de inspección en los locales y sedes del inspeccionado, en su propio domicilio o donde se encuentren ubicados los ficheros. Las inspecciones concluirán con el levantamiento del correspondiente acta en el que debe hacerse constar las actuaciones practicada durante la visita o visitas de inspección. Será firmado por el inspector y por el inspeccionado que podrá hacer constar las alegaciones que crea oportunas. Una vez finalizada las actuaciones previas, el Director de la Agencia decidirá si existen razones para imputar la comisión de una infracción o no. Se dictará resolución que notificará al inspeccionado y al denunciante. Si se produce resolución sancionadora deberá contener: - Identificación de la persona o personas presuntamente responsables. Descripción de los hechos imputados. Indicación de que el órgano competente para resolver es el Director de la Agencia de Protección de Datos. Indicar al presunto responsable de que puede reconocer voluntariamente su responsabilidad. En éste caso de dictará directamente resolución. Designación del instructor, o en su caso secretario, indicando el régimen de recusación de los mismos. Indicación expresa de que el responsable tiene derecho a formular alegaciones sobre el procedimiento y a proponer pruebas que estime conveniente. Indicar las medidas, de carácter provisional que pudieran acordarse. Prescripción. En el artículo 47 de la LOPD se reflejan los motivos de prescripción tanto para las infracciones como para las sanciones. El plazo de prescripción comenzará a contarse desde el día en que la infracción se hubiera cometido. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Se distinguen la prescripción de infracciones siguientes: - Infracción leve. Prescribe al año. Infracción grave. Prescribe a los dos años. Infracción muy grave. Prescribe a los tres años. Se interrumpirá la prescripción por las siguientes causas: - Iniciación de procedimiento sancionador. Si esta iniciación es con conocimiento del interesado. Se reanudará el plazo de prescripción por: - Si el expediente sancionador estuviera paralizado más de seis meses. Por causas no imputables al presunto infractor. Las sanciones impuestas por faltas muy graves prescribirán a los tres años, las impuestas por faltas graves a los dos años y las impuestas por faltas leves al año. El plazo de prescripción de las sanciones comenzará a contarse desde el día siguiente a aquel en que adquiera firmeza la resolución por la que se impone la sanción. 1.3 Derecho a indemnizaciones Tutela de los derechos. o Las actuaciones contrarias a lo dispuesto en la presente Ley pueden ser objeto de reclamación por los interesados ante la Agencia de Protección de Datos, en la forma que reglamentariamente se determine. o El interesado al que se deniegue, total o parcialmente, el ejercicio de los derechos de oposición, acceso, rectificación o cancelación, podrá ponerlo en conocimiento de la Agencia de Protección de Datos o, en su caso, del organismo competente de cada Comunidad Autónoma, que deberá asegurarse de la procedencia o improcedencia de la denegación. o El plazo máximo en que debe dictarse la resolución expresa de tutela de derechos será de seis meses. o Contra las resoluciones de la Agencia de Protección de Datos procederá recurso contenciosoadministrativo Derecho a indemnización. o Los interesados que, como consecuencia del incumplimiento de lo dispuesto en la presente Ley por el responsable o el encargado del tratamiento, sufran daño o lesión en sus bienes o derechos tendrán derecho a ser indemnizados. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 o Cuando se trate de ficheros de titularidad pública, la responsabilidad se exigirá de acuerdo con la legislación reguladora del régimen de responsabilidad de las Administraciones públicas. o En el caso de los ficheros de titularidad privada, la acción se ejercitará ante los órganos de la jurisdicción ordinaria. En caso de no ejercitar uno de los derechos de oposición, acceso, rectificación o cancelación, el responsable del fichero deberá indemnizar al afectado con una multa que oscila entre los 60.000 y los 300.000 euros. Si el responsable no atendiera los derechos u obstaculizase su cumplimiento de forma sistemática la indemnización oscilará entre los 300.000 y los 600.000 euros. BIBLIOGRAFÍA. • • • • • • Ley Orgánica 5/1992, de 29 de octubre, de Regulación del Tratamiento Automatizado de los Datos de Carácter Personal. LORTAD. Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal. Real Decreto 1720/2007, de 21 de diciembre, por el que se aprueba el Reglamento de desarrollo de la Ley Orgánica 15/1999, de 13 de diciembre, de protección de datos de carácter personal. Agencia Española de Protección de Datos. www.agpd.es Real Decreto 428/1993 de 26 de marzo, por el que se aprueba el Estatuto de la Agencia Española de Protección de Datos. Guía de seguridad de la Agencia Española de Protección de Datos ESTRATEGIAS Y METODOLOGÍA PARA EL INICIO DE COMPETENCIAS BÁSICAS EN LA EDUCACIÓN INFANTIL. AUTOR: FERNANDO DAVID PÉREZ DÍAZ. 1.- INTRODUCCIÓN. Un nuevo elemento curricular ha sido introducido en la acción educativa planteado por la L.O.E. Las competencias básicas forman parte de la programación en las aulas desde su inicio y primera toma de contacto en la educación infantil, pasando por su aprendizaje en la educación primaria y finalizando con su consolidación en la educación secundaria obligatoria. Pero existen muchas dudas sobre cómo se puede plantear ese inicio de este nuevo elemento curricular, en éstos primeros años empezamos a descubrir los principios metodológicos, así como las estrategias necesarias para lograr ese objetivo. El presente artículo pretende aportar la descripción metodológica de herramientas que permita a los/las docentes de la etapa de educación Infantil introducir en el día a día las competencias básicas con el objetivo de trabajar en el aula de forma efectiva. 2.- PALABRAS CLAVES. Portafolio, rincón, taller, aprendizaje cooperativo, competencia básica, aprendizaje, técnicas, requisitos. 3.- CONSIDERACIONES PREVIAS. Las diferentes técnicas necesarias para la introducción de la competencias básicas han sido desarrolladas a lo largo de la historia educativa, todas ellas han estado influenciadas por las diferentes C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 corrientes psicopedagógicas que se han dado, pero hoy en día están siendo utilizadas no por su influencia en el mundo educativo bajo su perspectiva teórica, sino por su incidencia en el logro y capacitación de las competencias básicas. Por otro lado decir que en algunos de los casos se tratan de técnicas y estrategias que llevan muchos años aplicándose en la Educación Infantil pero no con este sentido, y en otros son técnicas totalmente novedosas y que con adaptaciones se podrían dar en el entorno infantil. A continuación se presentarán diferentes técnicas y herramientas educativas cuyo desarrollo permitirá desarrollar en el aula de infantil esa iniciación a las competencias básicas 4.- PRINCIPIOS METODOLÓGICOS. Los principios que deben regir la práctica docente con el fin de poner en prácica las diferentes técnicas y obtener el objetivo de la iniciación de las competencias básicas en la Educación Infantil son los siguientes: Adaptación: muchos recursos se pueden y deben adaptarse a la etapa y nivel que se quiere aplicar. Cada adaptación debe contemplar las características psicoevolutivas del alumno7a al que se dirige. Análisis: las diferentes técnicas deben observarse a lo largo de su funcionamiento, así podremos rectificar y modificar los criterios para mejorarlas. Reflexión: cada propuesta debe ser sometida a la reflexión del docente para que pueda extraer las mejores conclusiones posibles 5.- TÉCNICAS DE TRABAJO. 5.1. EL PORTAFOLIOS. Definición. El portafolios es el instrumento donde se recogen los trabajos o productos de los/las alumnos/as relacionados con el trabajo realizado a lo largo del curso, trimestre o unidad didáctica. La carpeta la completa el/la propio/a alumno/a durante todo el curso. El portafolios nos informa sobre la evolución del proceso de aprendizaje que ha seguido el/la alumno/a, lo que permite valorar no sólo lo que ha aprendido sino también la capacidad de aprendizaje que ha logrado. El maestro/a de Educación Infantil debe dejar muy claro la forma de archivar el portafolio, para ello se debe ejemplarizar el sentido y orientación en el que se deben compilar los trabajos, de este modo el alumnado se esforzará en la adecuada presentación de sus producciones. Con el uso del portafolios los/las alumnos/as saben que es su responsabilidad demostrar los aprendizajes realizados y se sienten mucho más inclinados aceptar las críticas y a actuar tras los comentarios de sus trabajos. El uso del portafolios desarrolla la autonomía de los estudiantes; crea hábitos de trabajo; respeta los procesos de atención a la diversidad, ya que permite ajustar las actividades a las necesidades de aprendizaje de cada alumno; constituye un elemento dinámico en la comunicación profesor/alumno, favoreciendo la retroalimentación con respecto al progreso y aprendizaje individual. Pero también presenta algunos inconvenientes tales como que requiere tiempo y dedicación por parte del docente y del estudiante, además implica un alto nivel de autodisciplina y responsabilidad por parte del alumnado. El portafolios es una metodología que permite iniciar al alumnado en las siguientes competencias: 1- Competencia en comunicación lingüística: esta metodología permite generar ideas, dar coherencia y cohesión a las tareas y adoptar decisiones. 2- Competencia en conocimiento e interacción con el mundo físico: el portafolios facilita los procesos de identificar problemas y realizar conclusiones. Implica la habilidad de poner en práctica los procesos propios del análisis. 3- Competencia social y ciudadana: el portafolios sirve como modelo de autoevaluación , favorece la práctica del diálogo y de la negociación para llegar a acuerdos, así como la aceptación de críticas. 4- Competencia de aprender a aprender: esta metodología permite conocer las propias potencialidades y carencias, ayudando al alumnado a planificarse en estrategias para logar su objetivo. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 5- Competencia en autonomía e iniciativa personal: el portafolios favorece la comprensión y el análisis de los propios aprendizajes, así como la regulación del/la alumno/a en muchas de sus conductas. Condiciones organizativas. Para desarrollar esta técnica debemos fechar todos los trabajos, corregir las producciones, así como realizar pequeñas asambleas para dar a conocer lo destacable de las producciones y que se remarque los aspectos positivos de la misma. Del mismo modo debemos establecer las fechas y las formas de entrega, así como la revisión periódica de los portafolios. 5.2. LOS RINCONES. Definición. Los rincones son zonas o espacios delimitados y concretos, situados en las propias clases, donde los/las alumnos/as interaccionan simultáneamente. Los rincones constituyen una estrategia organizativa de participación que da respuesta a los distintos intereses de los/las alumnos/as y que, a la vez, respeta los diferentes ritmos de aprendizaje. Algunos puntos fuertes de los rincones son: la adaptación según ritmo y nivel de aprendizaje; estimula el trabajo autónomo; desarrolla la creatividad con la interacción de los diferentes elementos; desarrolla la cooperación entre los niños; potencia la actividad de los alumnos; educa en libertad de elegir y de tomar decisiones, etc. El contenido de cada uno de los rincones debe diferenciarse de forma que permita desarrollar el aspecto que pretende el mismo, ya que esto será lo que identifique al mismo. No hay que olvidar la actividad lúdica que pretenden los rincones, porque también es importante desde el punto de vista educativo, por eso el hilo conductor de todos los rincones de trabajo es el juego. Los aprendizajes que se producen en los rincones pueden ser espontáneos o guiados. Para ello el maestro/a de educación infantil establece el itinerario que debe seguir para llegar al conocimiento y generar un aprendizaje funcional. Trabajar por rincones implica en la mayoría de las ocasiones un nivel de seguimiento del alumnado que permite conocer la evolución de cada alumno/a y tomar decisiones sobre las medidas a tomar en cada situación Tendremos tantos tipos de rincones como temas y tipos de actividades se nos ocurra organizar. A modo de ejemplo proponemos diferentes rincones: el rincón de actividad lógica, el de topología, el de lectura, el de análisis de las palabras, el de pintura, el de biblioteca, el de geometría, el de laboratorio, el de modelado, el de construcción, el de música, el de observación y experimentación, el de prensa, etc. Un rincón que merece una especial atención es el del ordenador, cada vez más inserto en las aulas. Este recurso se hace necesario en la enseñanza, en tanto que supone la adquisición de un lenguaje que a lo largo de toda la vida va a desarrollar y necesitar. Los rincones constituyen una metodología muy adecuada para trabajar las siguientes competencias: 1- Competencia de aprender a aprender: los rincones permiten que los conocimientos se apliquen a una amplia variedad de situaciones, provenientes de los diferentes campos de conocimiento y de la vida cotidiana. Muchas veces la situaciones de los rincones son muy parecidas a la situación real. 2- Competencia de autonomía e iniciativa personal: los rincones desarrollan habilidades para desenvolverse con autonomía e iniciativa personal en ámbitos de la vida y del conocimiento , tanto es así que en la Educación Infantil se generan actitudes en el alumnado especialmente por este recurso educativo. . 3- Tratamiento de la información y competencia digital: siempre y cuando incluyamos un rincón de nuevas tecnologías de la información y comunicación. Condiciones organizativas. El /la maestro/a debe cumplir un papel de aglutinador de materiales específicos, así como de guía en la propuesta de actividades sugerentes, asumiendo un papel protagonista y alejado de la visión tradicional de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 maestro/a. Para ello deben concentrar toda la información del rincón a desarrollar, así como los materiales y establecer las condiciones de uso y empleo, así como la conducta a desarrollar en el mismo. Por otro lado las condiciones de espacio, así como las de higiene y seguridad son muy importantes. Deben diseñarse de tal manera que ofrezcan las mejores garantías para el desarrollo de los rincones. Por último se hace necesario que el/la maestro/a observe al alumnado en el desarrollo de los distintos rincones, para ello es necesario llevar algún tipo de registro que permita extraer la información deseada. 5.3.LOS TALLERES. Definición. Los talleres son técnicas de trabajo muy parecidas a los rincones, pero incluyendo algunas diferencias. Se desarrollan de forma puntual con el fin de elaborar un producto o tarea final. Pueden participar agentes externos del aula (padre, profesionales, etc). Varían en su ubicación para su desarrollo (fuera del aula, en la playa, en un parque, etc). En los talleres desarrollamos una técnica de participación conjunta que logra implicar a todos los agentes que participan del mismo. El alumnado debe conocer con anterioridad el propósito del taller y cómo se va a desarrollar. Los talleres inician en las siguientes competencias básicas: 1. Competencia aprender a aprender: ya que el propio alumnado describe técnicas diversas para llegar a la conclusión del producto final. 2. Competencia de conocimiento e interacción con el mundo físico: la construcción del conocimiento no puede realizarse desde una concepción individualista, sino desde una práctica social y colectiva, asumiendo actitudes de respeto a los demás y a uno mismo. 3. Competencia en comunicación lingüística: los talleres permiten desarrollar las relaciones constructivas con los demás, la capacidad para convivir y para resolver conflictos. Condiciones organizativas Los talleres tienen una organización muy flexible tanto en los participantes como en las condiciones para su práctica. En cuanto a los participantes pueden ir desde pequeños grupos a grupos interciclos. Lo que debemos tener presente en la creación de los grupos es que el mismo tenga las capacidades necesarias para poder desempeñar el taller. Algunas sugerencias de talleres pueden ser de elaboración de cerámica, cocina, pintura, música, etc. Es importante que incluyamos los talleres dentro de la programación diaria de aula para así poder llenar de contenido el mismo. 12.- CONCLUSIONES. La iniciación de las competencia básicas en la educación infantil está generando unos nuevos planteamientos y reflexiones de la práctica docente. Los/las profesores de educación infantil no nos encontramos al margen de éste propósito y como tal debemos generar metodologías que permitan a nuestros alumnos/as introducirse en aprendizaje funcionales para su vida cotidiana. La bibliografía así como las experiencias son escasas y tímidas, existiendo pocos recursos elaborados. Debemos adaptar muchas de las técnicas que se aplican en otros ámbitos para así poder conseguir ese propósito. A lo largo de los años venideros seremos testigos de una gran explosión de ideas relativas al tratamiento de las competencias básicas en la educación infantil y de cómo iniciarlas en nuestros/as alumnos/as. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 BIBLIOGRAFÍA. • ARNAU, L. Y ZABALA, A.. 11 ideas clave. Cómo aprender y enseñar competencias. Colección Ideas Clave, Editorial Graó, 2007 • BLANCHARD, M. y MUZÁS, Mª. D. Propuestas metodológicas para profesores reflexivos: cómo trabajar la diversidad en el aula.Madrid. Nancea 2005. • CABRERIZO, J., CASTILLO, S. y RUBIO, M.J. Programar y enseñar por competencias. Formación y Práctica. Pearson Educación, Madrid 2007 • CAÑAS, A., MARTÍN DÍAZ, M.J. y NIEDA, J. Competencias en el conocimiento y la interacción con el mundo físico. La competencia científica. ALIANZA 2007 • COLOMA, A.M., JIMÉNEZ, M.A. y SÁEZ, A.M. Metodologías para desarrollar competencias y atender a la diversidad. Madrid. PPC 2008. • COLL, C. Las competencias básicas en educación. ALIANZA 2007 • COLL, C., Las competencias en la educación escolar: algo más que una moda y mucho menos que un remedio. Aula de Innovación Educativa, nº 161. Mayo. 2007 • COLL, C., Redefinir lo básico en la educación básica. Cuadernos de Pedagogía, nº 339. Octubre. 2004 • JOHNSON,D.W.,JOHSON,R.T. y HOLUBEC, E.J. El aprendizajecooperativo en el aula. Buenos Aires. Paidós 1999. • MARCHESI, A. Sobre el bienestar de los docentes Competencias, emociones y valores. ALIANZA 2007 • MARINA, J.A. y BERNABEU, R. Competencia social y ciudadana. ALIANZA 2007 • MARTÍN, E. y MORENO, A. Competencia para aprender a aprender. ALIANZA 2007 • Monográfico sobre Competencias básicas Cuadernos de Pedagogía, 370 (julio-agosto) 2007. • MONEREO, C.; POZO, J.I. ¿En qué siglo vive la escuela? El reto de la nueva cultura educativa. Cuadernos de Pedagogía, 298 (enero), pp. 50-55. 2001 • PÉREZ, P., ZAYAS, F. Competencia en comunicación lingüística ALIANZA 2007 • PUIG, J.M. y MARTÍN, X. Competencia en autonomía e iniciativa personal. Josep María ALIANZA 2007 • RYCHEN, D. S. y SALGANIK, L. H., Las competencias clave para el bienestar personal, social y económico. Ediciones Aljibe, 2006 • SARRAMONA, J. Las competencias básicas en la educación obligatoria CEAC 2004. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 • V.V.A.A. Estrategias organizativas de aula: propuestas para atender a la diversidad. Graó.2001. LAS APORTACIONES DE VIGOTSKY Y SUS IMPLICACIONES EN LA EDUCACIÓN INFANTIL. AUTOR: FERNANDO DAVID PÉREZ DÍAZ. 1.- INTRODUCCIÓN. Muchas de las teorías de la educación aportaron y aportan muchos de los fundamentos prácticos de la enseñanza diaria, mucho más de lo que estamos acostumbrados a reconocer. El artículo que se presenta intenta relacionar de manera directa las reflexiones de Lev Vigotsky y su teoría socio histórica sobre el desarrollo humano y la metodología que se sigue en la Etapa Infantil. 2.- PALABRAS CLAVES. Zona de desarrollo próxima, andamiaje, guía, procesos psicológicos superiores, interacción, ayuda, educación infantil. 3.- IMPLICACIONES CIENTÍFICAS. Las implicaciones científicas sobre la Zona de Desarrollo Próxima, en adelante ZDP, y de procesos como el andamiaje son mucho más frecuentes de lo que imaginamos en nuestras aulas. El presente artículo pretende relacionar todo el conjunto teórico propuesto por Vigotsky y la reflexión en la práctica educativa de la Educación Infantil tal y como veremos en una propuesta teórico-práctica. En primer lugar debemos realizar una aproximación teórica de los postulados vigotskianos con el fin de enclavar nuestra reflexión. Según esta teoría el desarrollo no es un proceso estático. Existe una relación estrecha entre el aprendizaje y el desarrollo humano de manera que los procesos de aprendizaje ponen en marcha los procesos de desarrollo, por ello se le otorga gran importancia a la intervención del docente como al grupo al que se pertenezca como mediadores de la cultura y el individuo. El simple contacto con los objeto no produce aprendizaje, todo debe modularse por un guía o interprete. Teniendo presente lo anterior, las principales tesis que conforman el núcleo de esta teoría son las siguientes: en primer lugar los procesos psicológicos superiores, en adelante PPS , tienen un origen histórico y social. En segundo lugar los instrumentos de mediación (herramientas y signos), cumplen un papel central en la constitución de tales procesos. Y por último los PPS deben abordarse desde su construcción. Entre los PPS se pueden distinguir algunos elementales, (el habla) que se internaliza a partir de actividades sociales espontáneas. Otros en cambio requieren procesos de socialización específicos (lecturaescritura).Queda claro entonces la importancia que reviste el docente en todo este proceso. Otro concepto que debemos tener presente es el de Zona de Desarrollo Próxima (ZDP), para ello debemos considerar que en el/la alumno/a existen distintos niveles de aprendizaje, por un lado lo que él/ella mismo puede lograr (nivel de desarrollo real) y lo que puede hacer con ayuda (nivel de desarrollo potencial). Entre estos dos niveles es en los que se sitúa la ZDP que supone el espacio en que gracias a la interacción y ayuda do otros, una persona puede resolver tareas con un nivel que sólo/a no podría ser capaz de realizar. Por tanto es en la ZDP dónde se deben concentrar los esfuerzos del aprendizaje y de enseñanza y es dónde se desencadena todo el alumnos proceso de conocimiento de/la alumno/a y se avanza en su desarrollo. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 Como podemos observar a raíz de lo descrito la figura del/la maestro/a adquiere una especial importancia ya que es la figura que tirará del alumno/a para que se produzca el conocimiento y desarrollo. Ejercitará una función de mediación entre el/la alumno/a y los contenidos y las herramientas necesarias para aprender. Otro concepto necesario es el de andamiaje que haciendo un paralelismo con el mundo de la construcción. En la ZDP se debe colocar un andamiaje, al igual que en las edificaciones, un poco más debajo de lo que se construye para que pueda servir de apoyo y pueda moverse con facilidad y pueda poco a poco seguir construyendo una nueva planta o ZDP. Al final, igual que toda obra, se retirará el andamiaje o ayuda y la construcción o conocimiento estará afianzado. Es por medio de este andamiaje donde el/la docente interviene y adquiere un papel protagonista, no sólo en su acción magistral sino proponiendo nuevos y materiales adaptados, realizando experimentos, diseños de juegos, explicaciones entre compañeros, resolución de problemas, generando grupos de aprendizaje, etc. Para que el andamiaje tenga el efecto esperado debe reunir las siguientes condiciones: debe ser ajustable, es decir, debe adaptarse al nivel de competencia del sujeto menos experto y a los progresos que se produzcan. Por otro lado debe ser temporal es decir no debe permanecer siempre ya que el alumno/a debe ir adquiriendo mayor autonomía en la construcción de su conocimiento. Y por último debe ser audible y visible es decir, que el sujeto poco a poco vaya asumiendo un papel protagonista en la realización de las actividades y éste reconozca. Una vez logrado la consolidación de la ZDP se establecen nuevos niveles de desarrollo real y potencial delimitándose una nueva ZDP, volviéndose a generar un nuevo proceso de andamiaje y continuar el aprendizaje en una ZDP más avanzada. Pero todo esto no tiene sentido si no se enclava en un marco lúdico. Es el juego el que permite integrar y desarrollar las ZDP, pero no todos los juegos lo logran. Para que exista un efecto de empuje y aprendizaje el juego debe poseer reglas y normas socialmente establecidas que permitan ensayar los aprendizajes en un contexto lo más real posible, así tenemos que cuando jugamos en el rincón de la casita y desempeñamos la tarea del planchado tenemos que cada paso que realizamos interiorizamos un conjunto de aprendizajes que puestos en una situación real se suponen un buen campo para producir ZDP. 4.- IMPLICACIONES EN LA PRÁCTICA EDUCATIVA DE LA ETAPA INFANTIL. Una vez presentado todo este marco teórico inicial, debemos establecer una relación bastante directa entre el planteamiento vigotskiano y las características de la etapa infantil. No se nos puede pasar por alto que la etapa infantil guarda muchos paralelismos con las propuestas metodológicas de Vigotsky , así tenemos que en la mayoría de las propuestas del trabajo en educación infantil se presenten con un andamiaje necesario para que el/la alumno/a pueda pivotar en el mismo y poder organizar su conocimieto. Por otro lado podemos observar que el/la maestro/a se convierte en una figura primordial, tiene una función muy activa en la organización de ese conocimiento, presenta los materiales, los espacios educativos, activa los aprendizajes, estimula las intervenciones, intercambia roles, genera los diálogos, etc, todo ello se ajusta en un perfil que coincide con la imagen del docente en la Educación Infantil y que hace que la teoría sociocultural esté modulando muchos de los procesos de aprendizaje. Analizaremos ahora todo lo expuesto en un ejemplo práctico. En un aula del segundo ciclo de educación infantil (5 años), se presenta la unidad didáctica de los “animales domésticos”. Una de las actividades para iniciar la U.D. es la de partir de los conocimientos previos que posea el alumnado sobre los animales salvajes para ello el/la maestro/a lanza preguntas tales como ¿qué es un animal doméstico?, ¿por qué se llaman C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 domésticos?, ¿cómo son? ¿dónde viven?, etc . Una vez se conceptualiza y define el concepto a bordar el maestro/a presenta en papel contínuo en blanco en el que sólo se presenta el título de la U.D. A partir de ese momento el alumnado podrá aportar, mediante diferentes técnicas guiadas por el/la maestro/a, diferentes conceptos que a lo largo de la U.D. vayan enriqueciendo el contenido que se presenta. En la fotografía se puede analizar como partiendo del concepto básico de la U.D. de los animales domésticos podemos generar un trabajo mucho más amplio y completo en el que el alumnado participa activamente de su conocimiento y que aporta bajo diferentes técnicas como pueden ser el dibujo, la fotografía, etc. Debemos observar que las aportaciones realizadas por los alumnos/as se registran en un color diferente a las que realizar el/la maestro/a. Es un ejemplo gráfico de cómo se va construyendo el conocimiento buscando esa ZDP que nos proponía Vigotsky y de su andamiaje como sustento del conocimiento. Otro ejemplo práctico en el que se puede ver la influencia de la teoría de Vigotsky en el día a día de la Educación Infantil podría ser el proceso de andamiaje que se produce en actividades de la Asamblea . Es aquí donde el papel del/laa maestro/a adquiere esa connotación de guía del conocimiento que nos planteaba la teoría sociocultural y que sin lugar a dudas cumple estrictamente con el cometido expuesto. 5.- CONCLUSIONES. Como conclusión principal podríamos decir que se establecen muchos paralelismos entre la práctica diaria en la Educación Infantil y la teoría sociocultural lo que la hacen bastante evidente los paralelismos y las evidencias de las aportaciones de Vigotsky a la enseñanza y en especial a la Educación Infantil. Son varios los conceptos aportados por esta teoría a la práctica diaria que se ha visto reflejada en las diferentes leyes que han venido a amparar la educación infantil, así tenemos el concepto del aprendizaje significativo acuñado desde la LOGSE y que ha sido un principio metodológico que ha acompañado a esta etapa educativa en todo su desarrollo. Por otro lado tenemos que la mayoría de los principios metodológicos de la etapa infantil guardan una relación bastante estrecha con los principios de la teoría vigotskiana (aprendizaje a través del juego, acción y experimentación, proporcionar ambientes cálidos , acogedores y seguros, partir de los conocimientos previos, enfoque globalizador, etc.) Por todo lo comentado podemos concluir que los planteamientos de la teoría socio histórica se relacionan de forma directa con la concepción de la enseñanza en la etapa de la Educación Infantil, tal y como es concebida en la actualidad y que sin duda alguna esta teoría influye con bastante peso en la propuesta metodológica de estas edades. 6.- BIBLIOGRAFÍA. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 BAQUERO, R. (1996), "La Zona de Desarrollo Próximo y el análisis de las prácticas educativas", en: Vigotsky y el aprendizaje escolar, Aique, Buenos Aires, pp.137-167 GALAGOVSKY KURMAN, L.(1993): Hacia un nuevo rol docente. Troquel. Buenos Aires. GARDNER:(1997)"La Mente No Escolarizada", Paidos, Buenos Aires. MOLL, L : "Vygotsky y la educación", Aique, Buenos Aires. POZO,J (1996. ) : "Teorías Cognitivas del Aprendizaje"; Eds. Morata, Madrid WERTSCH, J.V.(1993):"Voces de la mente, Un enfoque sociocultural para el estudio de la Acción Mediada" Visor Distribuciones. Madrid. EL TEATRO DE SOMBRAS EN EL AULA. AUTOR: DANIEL RECAMÁN VIÉITEZ 1. RESUMEN - INTRODUCCIÓN. La intención de este artículo es la de presentar el teatro de sombras como un instrumento didáctico fascinante que puede servir de guía tanto al alumnado como al profesorado a la hora de acercarnos no sólo a diferentes cuestiones relacionadas con el mismo sino también a las pertenecientes a otras disciplinas que integran el curriculum escolar. 2. LAS SOMBRAS ENTRE DOS REALIDADES. Guido Petter: “Hay pocas cosas, creo yo, tan fascinantes y misteriosas para los niños como las sombras. Una sombra es al mismo tiempo real e irreal es algo objetivo, pero que, sin embargo, nos muestra ciertas características que pertenecen a los objetos del mundo físico…” 1. ¿Quién no ha jugado alguna vez con su sombra? ¿Quién no ha proyectado alguna vez la sombra de sus manos en la pared o en el techo de la habitación antes de dormirse? Las sombras parten de formas corpóreas, de una realidad física, pero el más mínimo cambio de las condiciones lumínicas, intensidad, color, dirección, hace que la sombra cambie provocando en el espectador extrañeza y contradicción ante lo que en un principio podía identificar de una manera clara. Las sombras insinúan, sugieren, “deforman”, nos presentan la realidad pero ya transformada, erosionada, para que el espectador vuelva a reconstruirla. De esta manera el teatro de sombras, utilizado de una manera directa sin ningún tipo de sofisticación y de manera próxima la realidad física y conocida, va produciendo imágenes no corpóreas, fugaces y nos evoca a otra realidad mágica y misteriosa. 3. LA LUZ Y LA SOMBRA EN EL ARTE. La luz y por lo tanto las sombras han sido utilizadas como materia prima para el arte y la cultura. De manera similar a la piedra, la arcilla, la madera, etc. La luz ha servido para construir espacios y ambientes, para definir formas, para sugerir y expresar sensaciones. En muchos ejemplos de la arquitectura, la luz va configurando, dando carácter a los diferentes espacios que configuran las viviendas: lugar de trabajo, de reposo, de protección, etc. La luz da un carácter más o menos sagrado a otros espacios, como los templos egipcios. Con la luz se busca provocar una impresión al devoto, al visitante. A través de la luz y de los obeliscos los egipcios medían el tiempo. La luz, la sombra, los jeroglíficos, los altorrelieves, la escritura estaban estrechamente unidos. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 La luz y la sombra remarcan los volúmenes, cambian las escalas, nos engañan sutilmente a la hora de percibir las formas y espacio como en el Partenón griego. La luz obliga a crear ventanas en la domus romana, determina la distribución de los distintos espacios de la misma: Los dormitorios y las bibliotecas deben mirar al oriente; pues su uso requiere luz matutina: también porque en esas bibliotecas no se pudren los libros: pero si están al mediodía o poniente, los destruye la polilla y la humedad; pues los vientos húmedos que vienen de dichas partes engendran y mantienen polilla; y esparciendo sobre los libros vapores húmedos, se enmohecen y corrompen 2. La luz adquiere valores simbólicos en el medievo. El templo se orienta en función del nacimiento y la desaparición la luz. La luz como símbolo de la sabiduría. La luz enseñando verdades espirituales a través de las vidrieras. En el edificio barroco no vemos de donde viene la luz, nos llega de una manera misteriosa, volviéndose a crear así un espacio divinizado. Con la electricidad y la luz artificial el espacio nocturno de la ciudad se convierte en un espacio controlado. En el siglo XX la luz va desmaterializando poco a poco los edificios. El muro sustentante es sustituido por el cristal. La luz se convierte en un material de construcción más. Cuando el escultor esculpe, talla, corta, pega, etc, no sólo piensa en lo que tiene en las manos si no en lo que no tiene, en la luz. El escultor trabaja con mármol, madera, hierro, plástico pero también con luz y sombra. En la escultura el exceso o la falta de luz pueden hacer desaparecer las formas. La luz condiciona las formas escultóricas, como en la Antigua Grecia, obligando a que a la hora de esculpir haya que alejar algunas proporciones de la realidad para poder ser percibidas correctamente. La luz y la sombra determinan las uniones de las partes de la escultura, suavizándolas o marcándolas con ángulos vivos. La luz incluso llega a ser la protagonista y prácticamente único material de la obra escultórica, como en la década de los 60 con los minimalistas. El nacimiento de la electricidad y por lo tanto de la luz eléctrica marca un antes y un después en la historia occidental. Supone el nacimiento de muchas cosas para la cultura: la fotografía, el cine, la televisión, etc. Con ello la luz es un generador de cultura, crea memoria, materializa ideas, la luz informa, comunica, etc. Teniendo en cuenta esto y otras muchas cuestiones, podemos pensar que la luz y la sombra pueden ser elementos, materiales, conceptos, etc. perfectamente válidos para incluir en una programación dentro del aula. 4. LAS SOMBRAS CHINESCAS EN EL AULA. El teatro de sombras es realmente un arte integral en el que se encuentran y complementan obras teatrales, literarias, plásticas, musicales, etc. El alumno construye las figuras (plástica), el guión (literatura), es actor y es espectador. Por lo tanto a través del teatro de sombras podemos conseguir una serie de objetivos que son propios de diferentes disciplinas. Como TEATRO en general y de sombras en particular, algunos de los objetivos y beneficios que podemos alcanzar a través del teatro serían los siguientes: -El teatro funciona como juego, con todo lo que esto conlleva. El juego es una forma de aprender de manera espontánea, natural, emotiva e intelectual. El atractivo del teatro como juego y técnica pedagógica radica en sus componentes dinámicos, participativos. -El juego dramático funciona también como una manera de evasión, de liberación, al poder adoptar diferentes roles, imitar diferentes realidades, facilitando la expresión afectiva y emocional. Esta posibilidad de salir de uno mismo ofrece la posibilidad de conocerse y de conocer otras formas de C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 pensar. Se desarrolla de esta manera la empatía favoreciendo cuestiones como la convivencia, la integración y el respeto mutuo. Podía llegar a ser incluso un medio de reinserción escolar. -A nivel de desarrollo cognitivo, a través del teatro se desarrollan la memoria y la imaginación. Se mejora la capacidad de destacar y retener con más precisión los contenidos. -Ayuda al conocimiento del propio cuerpo, aunque sea el de una marioneta, y de las posibilidades expresivas y liberadoras a través del mismo. -Puede suponer un refuerzo en la adquisición del sentido de ordenación temporal y espacial de aquello que se quiere relatar. -En definitiva con el juego del teatro estamos fomentando el aprendizaje a través de la experiencia. -La naturaleza sencilla y cercana del teatro de sombras en contraposición con los medios de expresión tan sofisticados y maquinizados, hace que nos sintamos próximos, cercanos a lo que se cuenta a través de él. -La cualidad de intangibilidad de las sombras pueden ayudar al desarrollo de la capacidad de abstracción en los niños y adolescentes. -Son un medio ideal para crear y contar historias. Desarrolla el vínculo entre lo real y racional con la fantasía. -Ofrece una facilidad técnica, gasto económico bajo, grado de inventiva alto, facilidad de manipulación y puesta en escena. Como OBRA PLÁSTICA: -Se desarrolla la capacidad de síntesis y abstracción formal a la hora de realizar siluetas. -Se ejercitan las capacidades y habilidades manuales, sobre todo a la hora de trabajar los detalles. -Se valora las posibilidades expresivas de elementos no habituales dentro de la educación plástica como son la luz y la sombra. -Conocimiento de la naturaleza física de la luz y el color con sus mezclas. -Se profundiza en el concepto de contorno y dintorno y en el de silueta. Se experimenta con proyecciones de figuras de frente o de perfil. -El alumno comprobará la dificultad de representar en la pantalla el volumen o profundidad, sobre todo a través de elementos como la perspectiva, pero descubrirá que a pesar de eso otro factor como el desenfoque puede ser utilizado para dar la sensación de profundidad, a la vez se valorará las posibilidades expresivas y comunicativas de la bidimensionalidad. -Se despierta el interés por la obra literaria a través de la obra plástica y/o viceversa, al utilizar un medio y lenguaje actual, cercano al alumno. Como OBRA LITERARIA: -Se trabaja y desarrolla de la capacidad de síntesis. La capacidad de convertir un texto en una obra audiovisual. -Se inicia al niño-adolescente en la comprensión de una historia argumental participando de esta manera en el fomento y desarrollo de la comprensión lectora, despertando el interés por la lectura. -Permite desarrollar la capacidad de traducir de un lenguaje comunicativo a otro, establecer diferencias, interrelaciones y valoraciones entre ellos. OTRAS APORTACIONES: -Con el teatro de sombras podemos desarrollar la capacidad de observación en los niños. -Fomentar la creatividad: -Distintas maneras de representar los personajes, los textos, etc. -Medio con posibilidades infinitas: siempre hay cosas que contar, y las posibilidades de contarlo son múltiples. -Elemento motivador por su cercanía con el niño. -Etc. -Es un importante instrumento del desarrollo de la capacidad expresiva. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 -Proporciona un conjunto de signos que facilitan dicha capacidad. -Puede dar seguridad al niño a la hora de expresarse ya que es un medio que le puede resultar cercano. -Es un instrumento para fomentar el trabajo en grupo. Una de las características de la naturaleza de la obra audiovisual es la de ser un trabajo que debe ser realizado por un equipo de personas, con unas funciones más o menos definidas y a la vez dependientes unas de otras. -Facilita el camino para la autonomía personal. Idoneidad dentro del centro educativo y del aula. Hasta ahora hemos citado algunos beneficios que puede aportar el teatro de sombras en el aprendizaje y desarrollo pedagógico. A continuación mencionaremos algunas razones por las que el teatro puede ser de mucha utilidad y poseer un grado de idoneidad importante dentro de un aula y de un centro educativo: -Versatilidad. Dentro de un centro educativo, una obra hecha para el teatro de sombras permite ser adaptada a diferentes necesidades y propuestas didácticas que se dan a lo largo del curso escolar y a los cambios que se producen de un curso a otro, ya que a través del teatro podemos narrar cualquier tipo de historia, relacionadas con las diferentes materias dentro del plan educativo de un centro y lo podemos hacer de muchas maneras. -Transversalidad. Su carácter multimedia permite que numerosas disciplinas que integran un sistema educativo participen de manera conjunta en la elaboración de un proyecto centrado en la creación de esa obra teatral. Podemos hacer una obra de teatro de sombras sobre un hecho o personaje histórico (Ciencias Sociales e Historia). Necesitaremos también conocimientos de cómo se estructura y crea un texto literario (Lengua y Literatura). Para la construcción de la pantalla donde se van a proyectar las sombras y estructuras que soportan las siluetas necesitaremos de la participación del Departamento de Tecnología, etc. -Por si mismo puede funcionar como elemento vertebrador y unificador de una programación didáctica de cualquier materia a lo largo de un curso escolar permitiendo que se aborden los diversos contenidos propios de las asignaturas entorno a la creación y desarrollo de esta obra teatral. Funcionaría como un proyecto para un curso o un trimestre. 5. ¿CÓMO ABORDAR LA REALIZACIÓN DE UNA OBRA DE TEATRO DE SOMBRAS EN EL AULA? 5.1. ALGUNAS CUESTIONES PREVIAS. Partiendo de una serie de premisas como que probablemente el alumno no tenga conocimientos ni preparación suficiente en dibujo y que los recursos de un centro normalmente son escasos, deberíamos tener en cuenta ciertas cuestiones a la hora de utilizar el teatro de sombras como parte de una programación didáctica: -Buscar sencillez en el dibujo y diseño de personajes y fondos. -Utilizar materiales de reciclaje y económicos. -La obra no debe ser demasiado larga. Debe poseer un lenguaje relativamente sencillo. No debe tener demasiados personajes con el fin de que sea más fácil la manipulación detrás de la pantalla. -Los personajes e historias que se identifiquen con los alumnos. 5.2. EL DISEÑO. 1. del guión. Inicialmente se podrían hacer una serie de lecturas iniciales de varias obras dramáticas. Lecturas individuales y en grupo, improvisando dramatizaciones, etc. En esta fase se colaboraría C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 con el Departamento de Lengua y Literatura. Trabajaremos con los alumnos aspectos del lenguaje oral (pronunciación, entonación), de expresión escrita (signos de puntuación, léxico…), etc. El guión podría ser inventado completamente por el alumno o adaptado de uno ya existente. A la hora de sacar ideas se podrían utilizar diferentes técnicas de desarrollo de la creatividad, ejercicios como el presentar a los alumnos unos personajes ya definidos y construidos y que ellos realicen el guión a partir de las características de los mismos, el que a partir de una frase cada alumno, por orden, vaya aportado otras que tengan cierta relación con la anterior de manera sucesiva hasta construir una historia con más o menos sentido, etc. Los temas o ideas principales del guión podrían ser extraídos de numerosas fuentes: sucesos actuales obtenidos de los medios de comunicación de masas, temas tratados en algunas asignaturas como por ejemplo algún acontecimiento histórico o biografía de algún personaje histórico que los alumnos estén tratando en el área de historia, etc. También se podría utilizar una historia de un cómic adaptándola para convertirla en una obra teatral de sombras, donde incluso los diálogos en vez de ser narrados por los alumnos se podrían presentar a base de siluetas con forma de los bocadillos, onomatopeyas y otros recursos lingüísticos del cómic, etc. 2. de personajes y fondo. Los personajes. Para el diseño de los personajes se podría hacer una recopilación y posterior clasificación de diferentes ejemplos de diseños de personajes ya existentes en el mundo del teatro de sombras, de la ilustración, del cómic o de otras fuentes. A partir de ahí se analizarían los elementos gráfico-plásticos, propiedades anatómicas, tipologías de ojos, bocas, expresiones, vestuario, (el uso del color, de las líneas…), estilos, etc. Una vez hecho esto pasaríamos a un proceso de síntesis donde diseñaríamos nuestros propios personajes en función de las características de los personajes de nuestra historia, previo análisis de las características sicológicas y físicas de los personajes y de los lugares donde se desarrolla la acción. Como ya hemos dicho no tienen por que ser diseños sofisticados, se pueden obtener interesantes resultados con formas anatómicas hechas a base de figuras geométricas. En esta fase ya se empezaría a tener en cuenta las características técnicas que veremos posteriormente. Los fondos: trabajados de manera similar a los personajes. 5.3. CONSTRUCCIÓN. 1. Los personajes. A continuación se pasaría a hacer los dibujos definitivos sobre el material que vamos a utilizar para las siluetas, en función de si las queremos completamente en negro, con perforaciones o transparentes. A la hora de dibujar las figuras tenemos numerosas posibilidades: dibujar directamente, utilizar papel de calco para transferir imágenes, imprimir directamente por diversos medios, etc. Todo ello en función del tipo de técnica y material que usemos para construir nuestras siluetas. Una vez dibujadas sobre los materiales correspondientes pasaremos al recorte de las mismas. TÉCNICA DE SILUETAS. En esta técnica tenemos que trabajar entorno a conceptos como el de formas bidimensionales, el perfil, el contorno y dintorno. En principio es una técnica sencilla ya que la silueta en si se asemejan a la sombra proyectada y por lo tanto podemos controlar o preveer el resultado. TIPOS DE SILUETAS. 1. De sombra negra. No tiene perforaciones. Los personajes y demás figuras de la obra se deben realizar teniendo en cuenta básicamente que no les podemos añadir elementos morfológicos a las figuras en el interior de las mismas ya que éstos no se apreciarían a través de la pantalla. Todas las C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 figuras se deben realizar de perfil, a modo de figuras egipcias, tratando de destacar en el contorno los elementos que necesitamos para expresar lo que queremos, por ejemplo: los labios, las manos, etc. 2. Sombra perforada. Se podrían utilizar los mismos materiales que en la sombra negra pero sabiendo que este tipo de silueta presenta una serie de dificultades técnicas. Al perforar la silueta, ésta se va a debilitar. Por lo tanto sería bueno utilizar materiales más bien rígidos. Como se deduce por el nombre, la técnica en este tipo de siluetas consiste en ir perforando la misma, de manera que la luz pueda pasar a través de ellas. Se trabajaría con el juego de vacíos y llenos, blanco y negro, de positivo y negativo. Ya no es tan importante insistir en el concepto de la silueta de perfil, aquí se puede jugar con el frente. Los vacíos pueden dejarse tal cual o cubrirlos con papel de celofán, acetatos de colores y cualquier tipo de superficie tamizada o traslúcida. 3. Sombras completamente transparentes: Se dibuja la silueta, sobre una superficie más bien rígida que puede ser una plancha de acetato básico y se pegan otros fragmentos de colores sobre esa plancha base. Es una técnica más difícil, no permite ningún fallo ni en la elaboración de las figuras ni en la manipulación de las mismas a la hora de la dramatización. MATERIALES, HERRAMIENTAS Y TÉCNICAS. 1. Un primer material en el que podemos pensar sería el del cartón o cartulina. Es apropiado para el ámbito escolar por su bajo coste y facilidad de manejo así como la obtención de resultados interesantes. Se puede dibujar de manera fácil sobre el cartón. Si utilizamos la cartulina tenemos que tener en cuenta que las figuras no pueden ser tan grandes como las obtenidas en cartón. Las herramientas que se necesitan para realizar las siluetas con el cartón serían básicamente: tijeras, listones de madera para los bastidores, alambre, pegamento y esparadrapo. Los tipos de cartón son variados: cartón corrugado simple o doble, cartón pluma, cartón piedra, etc., cada uno con diversas características a la hora de ser manipulados y de durabilidad. Prácticamente en todos los tipos de cartón es necesario que se rematen bien los bordes, haciendo que queden lisos, ya que suelen quedar flecos o rebabas después de cortar. En caso de no realizar este acabado de los bordes, los flecos se verían posteriormente en la pantalla. 2. Otro material podría se la madera. Se podrían usar tablas de marquetería. Estas nos aportan una mayor durabilidad y resistencia que el cartón. Con ellas se podrían hacer siluetas de mayor tamaño. Necesitaríamos por otro lado otro tipo de herramientas, como sierras de marquetería, cola, tornillos, etc. La técnica a la hora de dar movimiento a las siluetas hechas con cartón o cartulina se basa en la utilización por un lado de varillas horizontales y verticales sujetas con cinta adhesiva sobre todo con la cartulina y grapas cuando las siluetas son de cartón. Las articulaciones pueden ser creadas con remaches, muelles, gomas elásticas, etc. Con la madera se podrían utilizar, para las articulaciones, bisagras de diferentes tamaños y formas en función del grosor de la madera. A la hora de sujetar la silueta también se pueden usar varillas de manera similar que con el cartón. TÉCNICA CON FORMAS VOLUMÉTRICAS. Pueden ser realizadas a partir de cualquier elemento o incluso podríamos utilizar objetos encontrados, naturales o artificiales, cualquier elemento puede formar sombras interesantes y válidas para el teatro de sombras. Éstas ofrecen un mayor número de sombras que las planas, y con un carácter más sofisticado. Posee un lenguaje más complejo, incluso pueden generar imágenes donde se pueda intuir cierto volumen. La sombra de una rama o de una hoja de un árbol proyectada en una pantalla puede ser evocarnos un árbol, que al girarla adquiere más matices que una sombra hecha a base de siluetas. Nuestro cuerpo, y en concreto las manos, ha sido la primera herramienta C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 del hombre y como tal nos puede servir para crear una obra teatral de sombras, sombras corporales. Han sido las primeras sombras con las que tenemos contacto de hecho uno de los teatros más antiguos es el de las sombras hechas de esta manera, originalmente de China, las sombras chinescas. 2. La pantalla. EL TAMAÑO de la pantalla estará en función del número de personas que van o pueden estar detrás de la misma manipulando las siluetas. También hay que tener en cuenta el lugar donde se van a representar las obras, ya que si el lugar es relativamente grande la pantalla necesitaría unas dimensiones grandes para que las sombras puedan ser apreciadas por todos. Lo que se puede hacer es construir dos pantallas con dos tamaños, uno pequeño para realizar las representaciones en el aula, con obras pequeñas donde, como mucho, dos alumnos serían los que van a estar detrás de la pantalla, y otra de un tamaño mayor para obras con más personajes, con más de dos alumnos detrás manipulándolos y que sirva para utilizarla en un salón grande. LOS MATERIALES. Normalmente se utiliza una tela de sábana, que no sea muy tupida, sobretodo para las pantallas de gran tamaño. Planchas de metacrilato, papel vegetal u otros materiales sintéticos cuando las dimensiones no son mayores de 1metro. La pantalla, fijada sobre una superficie o estructura fija, debe tener cierta inclinación hacia atrás. Esta inclinación sirve para que las siluetas se apoyen completamente en la pantalla. SISTEMAS DE SUJECIÓN. El bastidor suele ser el más usado. Además de usarse como soporte de la pantalla lo puede ser incluso del foco o focos de luz. Lo más sencillo, y posiblemente lo más económico, es construirlo de madera al cual se fijará la pantalla. Se puede utilizar también barras metálicas que permiten una mayor facilidad de montaje, de transporte y de almacenamiento. También ofrecen una mayor durabilidad, e incluso menor peso en el caso de utilizar barras de aluminio. Usar un armario, con ruedas mejor, también podría ser otra solución. Se le extrae el panel posterior y para evitar que de esta manera quede debilitado, se refuerza con unos ángulos metálicos en las esquinas. El armario tendrá que ser amplio para que entren al menos dos personas y se puedan mover de una manera cómoda dentro de él. La pantalla se sujetaría por dentro y lo más cerca posible de las puertas. Con este sistema además de servirnos para sujetar la pantalla nos vale para guardar las siluetas y focos dentro del mismo. Se podría además decorar las puertas. Otro sistema de sujeción consistiría en anclar a dos de las paredes del aula una cuerda de donde iría colgada la tela sin más. La ventaja de este sistema es su facilidad a la hora de montar, desmontar y almacenar. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 3. La iluminación. TIPOS DE PROYECTORES: -Los proyectores de diapositivas poseen un haz de luz potente. Permite proyectar diapositivas que se pueden usar como fondos y nos dan la opción de usar color. Normalmente se necesita una gran distancia entre el proyector y la pantalla y no permite grandes variaciones de tamaño de las sombras cuando alejamos o acercamos las siluetas a la pantalla. -Focos. Poseen normalmente un haz de luz potente y amplio. Permite cambios de tamaño en las sombras con pequeñas variaciones en la distancia entre las siluetas y la pantalla. -Otros proyectores de luz podrían ser bombillas, linternas o incluso velas. DIRECCIÓN DE LA LUZ: normalmente la luz se deja caer desde arriba para evitar que las siluetas de los que manejan las siluetas queden reflejadas en la pantalla. INTENSIDAD DE LA LUZ. Se pueden usar luces de diferentes intensidades o con sistemas que regulan dicha intensidad, para hacer desaparecer de una manera suave a los personajes de la escena y dar paso a otros. COLOR DE LA LUZ. El uso de colores, mediante filtros, permite aportar a las obras otra serie de significados, recursos plásticos y dramáticos. A partir del conocimiento de estos elementos y recursos básicos, sería bueno e importante el adquirir destrezas, resultados plásticos y dramáticos interesantes a través de la EXPERIMENTACIÓN. 4. Técnicas tradicionales. A continuación mencionaré algunas técnicas tradicionales usadas en diferentes países desde hace muchos años, algunas de ellas relacionadas con los orígenes mismos del teatro de sombras. De ellas podemos sacar ideas tanto técnicas como plásticas para aplicarlas en nuestro proyecto del aula. En China se usan siluetas de unos 60 cm, sujetadas por la cabeza y los brazos con varillas horizontales. Las siluetas están articuladas en numerosos puntos, teniendo gran movilidad. Son traslucidas, caladas y coloreadas. Se utilizan pegadas a la pantalla. Ésta se ilumina desde cerca, quedando el actor detrás de la luz. Esto da lugar a apariciones rápidas y a no utilizar las sensaciones de profundidad ni de difuminación de la imagen, ya que en cuanto se alejan de la pantalla desaparecen En India el teatro de sombras que se utiliza está cerrado por todas partes, quedando una ventana iluminada difusamente por una lámpara colgada desde arriba y muy pegada a la pantalla. Las figuras son grandes y traslucidas, articuladas en brazos y piernas y sujetas por una sola varilla desde abajo y enganchada a la cabeza. En Java aparecen las figuras con volumen, lo que permite ver distintas sombras de una misma figura a medida que gira. No se usan pegadas a la pantalla. Se ven tanto las figuras como los actores. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 En Turquía las siluetas son similares a las usadas en China. La luz no está pegada a la pantalla lo que permite alejamientos y acercamientos de las figuras y con los consiguientes aumentos de tamaños. 5.4. A ESCENA. PRIMEROS EJERCICIOS. Una vez que ya tenemos nuestro guión realizado, las siluetas, la pantalla y el/los focos con las características que creamos convenientes, pasaríamos a realizar una serie de ejercicios iniciales con un fin de experimentación para familiarizarnos con esta técnica expresiva, y también poder obtener resultados plásticos y dramáticos que pudiésemos incorporar a nuestra obra. Una primera actividad podría consistir en hacer una serie de ensayos con las sombras proyectadas por nuestros propios cuerpos en la pantalla que hemos construido. Es importante que los otros alumnos vayan comprobando como se deforma la silueta a medida que se van cambiando los que están detrás de la pantalla, o cuando lo que cambia son las características de la luz: intensidad, color, distancia… deben tener claro la relación de los cambios de las sombras con las posiciones relativas del foco. ¿Cómo podemos agrandar y empequeñecer una misma forma? ¿Cómo funciona una sombra al colocar la figura de frente o de perfil? ¿Los bordes como hacer que sean difuminados o bien definidos? ¿Cómo podemos conseguir volumen? En una segunda actividad los alumnos podrán jugar a adivinar quien está detrás, de manera que el alumno que está detrás de esa pantalla cambie de posición, alejándose, acercándose, girándose, etc. En la tercera actividad utilizaremos las sombras de diferentes objetos de manera que los alumnos deben adivinar cuales son. Otra actividad consistiría en unir de diferentes maneras los objetos para obtener proyecciones que recuerden a otras figuras que no tengan relación con los objetos que forman dichas sombras. ENSAYOS. Después de estos primeros ejercicios iniciales para familiarizarnos con este medio de expresión pasaríamos a realizar una serie de ensayos. Ensayos de los movimientos, ensayos de los diálogos, de la sincronización con la música, de cómo colocaríamos cada elemento detrás de la pantalla, etc. En esta fase podríamos establecer el número de alumnos que van a manejar las siluetas detrás de la pantalla. Este número está en relación, básicamente, con la cantidad de siluetas que aparecen en cada escena así como con el espacio disponible detrás de la pantalla. Es tan importante el ensayar lo que aparece delante de la pantalla como la organización que hay detrás de ella. Podríamos ahondar en detalles pero creo que con esta planificación se podría abordar la realización de un teatro de sombras de una manera organizada, en donde los alumnos de una forma autónoma, con el profesor como orientador y coordinador, podrían conseguir unos resultados pedagógicos y lúdicos muy interesantes. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected] ISSN 1696-7208 DEPO. LEGAL: SE-3792-06 NÚMERO 63 – MAYO 2010 BIBLIOGRAFÍA. -Angoloti, C. Cómics, títeres y teatro de sombras: tres formas plásticas de contar historias. Ediciones de la Torre, Madrid 1990. -Olivares Torruella, Pedro A. ¡ARRIBA EL TELÓN! Técnicas para el montaje de obras de teatro enseñanza. Editorial André Bello, Santiago de Chile 1990. -González, Arsenio M. Escuchar, hablar, leer y escribir: Actividades con el lenguaje. Ediciones de la Torre, Madrid 2000. 1. Petter, G., Catálogo de la exposición, “I Centro Linguaggi dei Bambini”, Comune di Reggio Emilia 1984, pp. 71-72. 2. VITRUVIO POLIÓN, Marco. Los Diez Libros de Arquitectura. Madrid : Ed. Akal, S. A. 1987. C/ San Juan Bosco nº 51 B Sevilla 41008 Telf.: 954069012 [email protected]
© Copyright 2025