nº15 marzo 2015 CIENCIA Y TECNOLOGÍA Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco Juan Antonio Zufiría Aurkene Alzua-Sorzabal entrevista al Director General de IBM Global Technology Servicies Europa Euskadi-Aquitania Mesa de ideas Visiones y reflexiones sobre la investigación desde los dos territorios El año de la luz Artículos de Ricardo Díez Muiño y Javier Aizpurua, Rubén Esteban, Pablo Alonso y Rainer Hillenbrand Contenidos Editorial 04 Jesús María Goiri, director general de CIC Energigune, escribe sobre la nueva etapa de CICNetwork Diálogos científicos 06 Aurkene Alzua-Sorzabal entrevista a Juan Antonio Zufiría, Director General de IBM Global Technology Servicies Europa Ciencia en abierto 12 Alex Fernández Muerza, periodista de divulgación científica, escribe sobre divulgación científica en internet e impresoras 3D, ¿la tercera revolución industrial? Investigación en vivo 20 Mer Licht! artículo de Ricardo Díez Muiño y Nanoóptica: controlando la luz en la nanoescala de Javier Aizpurua, Ruben Esteban, Pablo Alonso y Rainer Hillenbrand Entorno CIC 33 Mesa de ideas Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania con Igor Campillo, Helene Jacquet, Jacques Tortos, Fernando Plazaola, Eric Papon y Antonio Porro. Modera: Joseba Jauregizar Artículos de Silvia Alonso-de Castro, Emmanuel Ruggiero y Luca Salassa, Josu Martínez-Perdiguero, Deitze Otaduy, Aritz Retolaza y Santos Merino, Josu Eguia. L. Uriarte y A. Lamikiz Científicos ilustres 66 Santiago Pérez Hoyos, Galileo Galilei: en busca de la evidencia Nueva etapa, nueva luz Desde los inicios de creación de los centros de investigación cooperativa, en particular, desde el primero de los creados (CIC Biogune), se ha venido publicando la revista CIC Network con una periodicidad bianual. Se cumplen ahora diez años desde que se creó el primer centro de investigación cooperativa, el CIC Biogune, y nueve años desde que viera la luz el primer número de CICNetwork. Desde entonces, otros centros se han ido sumando a esta red, enriqueciéndola y aportando esfuerzo e ilusión a cada nuevo número de la revista. Las catorce ediciones publicadas han cumplido excepcionalmente con los objetivos de rigor y calidad científicos que exigieron, desde el principio, los editores de la revista; el despliegue de primeras figuras de la ciencia mundial han ocupado la públicación en todos sus números. Ahora, después de nueve años, toca un cambio conceptual que está muy relacionado con la incorporación de lo digital al modo de plantear la publicación, y todo ello, sin abandonar el vehículo papel; además es prioritario mantener el nivel anterior de rigor y calidad científicos. nuevas secciones y un diseño atractivo que nos permita acercar, aún más, nuestro trabajo a la sociedad. Este nuevo periodo de la revista pretende acercar la misma a un público objetivo no estrictamente académico y, al mismo tiempo, procurar que su lectura apasione al colectivo investigador, en principio, el de nuestro entorno. Queremos también que la revista sea un canal para a dar a conocer al exterior los logros y ambiciones del conjunto de los CIC y una plataforma de entrada para proyectos, investigaciones y noticias de primera relevancia asociadas al conjunto de la RVCTI y a los propósitos del nuevo Decreto. Comprobaréis que, desde ahora, nuestro espacio digital cambia sustancialmente con el objetivo de aumentar el número de visitas con una web más actualizada, El reto, en este período de presidencia rotatoria de CIC Energigune, será el de mantener a toda costa el rigor y calidad de lo anterior y ampliar el abanico de interés a un colectivo investigador más amplio. Lo que si podemos contrastar como seguro es que: sólo aquellas regiones que apuesten de manera masiva por crear centros de conocimiento e investigación sobrevivirán como ofertas económicas innovadoras; lo contrario será ciertamente un camino rápido a la decadencia y marginalidad. Jesús María Goiri, Director General de CIC Energigune Una idea ambiciosa a largo plazo sería convertir esta publicación en un altavoz para multiplicar el conocimiento de lo que hacemos en Euskadi en materia de I+D+I. En primer lugar, dentro de la propia Red y también en el exterior; pues es indudable que la consolidación de Euskadi como un referente industrial y de innovación sólo podría realizarse mediante un sector de I+D+I volcado a Euskadi y al mundo y dotado de unos presupuestos adecuados. Este nuevo número cuenta como tema principal el Año Internacional de la Luz y entre los interesantes artículos de la revista mencionar “Diálogos Científicos”, la entrevista a D. Juan Antonio Zufiria, Director General de IMB Global Technology Services Europa así como la “Mesa de ideas”, que aborda un aspecto de gran trascendencia como es la colaboración en materia de ciencia e investigación en la Euro-región Aquitania – Euskadi. El año de la luz Que la revista CIC Network dedique parte de este número quince al Año Internacional de la Luz está plenamente justificado, pues la historia de nuestro Universo y la de la civilización en nuestro planeta Tierra está íntimamente relacionada con la luz; desde el fuego como iluminador de esa caverna ha- Consejo Editorial Aurkene Alzua-Sorzabal Eduardo Anitua Pedro Miguel Etxenike Jesús María Goiri Félix M. Goñi Nuria Gisbert Joseba Jauregizar Luis Liz Marzán Xabier de Maidagan José María Mato José María Pitarke Ana Zubiaga Director Jesús María Goiri bitada, a la exploración de lo más oculto de la materia; quizá con una radiación de sincrotrón para caracterizar algún componente biológico clave como una proteína. Ciertamente el progreso de la humanidad ha sido paralelo y se ha acelerado extraordinariamente con el conocimiento de la luz; sobre todo a partir del gran James Clerk Maxwell, quien realizó la primera de las unificaciones de dos de las Fuerzas principales que controlan nuestro Universo. A partir de ese instante fue cuando empezamos a comprender que existía un mundo mucho más amplio que ese minúsculo intervalo de longitudes de onda que llamamos luz y que constituye lo que vemos, ya que se descubrió que la luz se extendía más de 24 órdenes de magnitud: desde las ondas más largas hasta la radiación gama más penetrante. Colaboran Pablo Alonso Silvia Alonso-de Castro Javier Aizpurua Ricardo Díez Muiño Josu Eguia Rubén Esteban Alex Fernández Muerza Rainer Hilenbrand L. Lamikiz Josu Martínez-Perdiguero Santos Merino Daitze Otaduy Santiago Pérez Hoyos Aritz Retolaza Emmanuel Ruggiero Luca Salassa L. Uriarte Coordinación Sara Ortiz Prismaglobal El progresivo dominio de la luz por parte de la Humanidad ha permitido que múltiples aplicaciones como la radio, la televisión, el radar de telefonía móvil, los láseres en todo tipo de equipos o que diagnósticos, terapias y tratamientos médicos sean de uso común y se encuentren presentes en nuestras vidas diarias. Tenemos que ser conscientes que todo esto y otras muchas utilizaciones, incluso el caso de Internet, es el resultado de nuestro dominio sobre el fenómeno físico que denominamos luz. Diseño y maquetación Prismaglobal Estas aplicaciones ya son habituales en nuestra vida diaria; pero todavía nos espera un gran camino de desarrollo con un futuro que nos sorprenderá a todos. Los avances en el campo de la fotónica volverán, a buen seguro, a revolucionar las aplicaciones de la luz; desde la computación cuántica a la opto-atómica, con aplicaciones sorprendentes que van desde la navegación hasta la metrología. En definitiva, podremos seguir teniendo muchos años internacionales de la luz y sin embargo, no podemos olvidar el elemento clave: que la luz, sobre todo en esa diminuta banda de longitudes de onda que percibimos nos da la posibilidad de una vida compleja en nuestra Casa merced a la fotosíntesis. Edita CIC Network Asoc. Red de Centros de Investigación Cooperativa del País Vasco Parque Tecnológico de Bizkaia, Ed. 800 48160 Derio (Bizkaia) [email protected] Sí, la luz es muy importante. Como dice Ricardo Díez Muiño en un artículo de este número: Mehr Licht!. Reportajes fotográficos Roberto Villalón APPA Agence Photo Depósito legal SS-1228-2006 Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados. OS ÍFIC ENT S CI LOG O DIÁ “Los nuevos modelos de computación tratan de emular la eficiencia energética del cerebro humano” Aurkene Alzua-Sorzabal, Directora General de CIC tourGUNE, entrevista a Juan Antonio Zufiría, Director General de IBM Global Technology Servicies Europa Juan Antonio Zufiría es una de las figuras más destacadas de la computación en nuestro país. Desde 1987, este matemático e ingeniero aeronáutico, ha estado ligado a una de las grandes multinacionales del sector: IBM. Primero como investigador en el Thomas Watson Research Center de Nueva York y, posteriormente, en varias funciones directivas, Presidente de IBM España, Portugal, Grecia y Israel, hasta alcanzar su actual responsabilidad: Director General de IBM Global Technology Services South West Europe. Zufíria es también Académico Numerario de la Real Academia de Ingeniería de España. DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal Juan Antonio Zufiría, (Villabona) es Doctor Ingeniero Aeuronáutico por la Universidad Politécnica de Madrid, Ph.D. in Applied Mathematics por el California Institute of Technology y Master en Business Administration por la London Shcool of Economics. En 1987 obtuvo el premio W.P. Carey & Co. Inc. en Matemáticas Aplicadas del California Institute of Technology a la mejor disertación doctoral. En 1989, fue nombrado director de Tecnología de Ingeniería del Conocimiento (IIC) desde donde impulsó su actividad innovadora. En la actualidad es Director General de IBM Global Technology Services South West Europa . Desde que le otorgaran el premio WP Carey & Co. Inc. en Matemáticas Aplicadas del California Institute of Technology a la mejor disertación doctoral el mundo ha cambiado sustancialmente. ¿Cuáles son los principales aspectos de cambio? Hay dos cosas que me han sorprendido en estos años desde que terminé mi tesis doctoral, la primera es el aumento de la complejidad y el segundo el cambio en la escala de tiempo en el que las cosas ocurren. Cuando pienso en el primero creo que hay una serie de factores económicos y sociales que han sido impulsados por la globalización y también las tecnologías nos han permitido entender mucho mejor el mundo que nos rodea, el mundo se ha hecho mucho más interconectado y tenemos ahora mejores gafas (lentes) para ver lo que ocurre a nuestro alrededor. Con los cual, tenemos un mundo más complejo y vemos más complejidad en ese mundo, porque somos capaces de ver más cosas. Esto para mi es muy importante porque viniendo de un mundo matemático me abre al espacio de los sistemas no lineales, la riqueza de cosas que puedes hacer cuando las soluciones no son lineales aumenta sustancialmente y eso es lo bonito del mundo que tenemos ahora. Veo más cosas y veo que puedo hacer muchas más cosas. La segunda, es la escala de tiempo en las que las cosas cambian. Cuando comparo el ritmo de la innovación de la década de los 80, cuando hice mi tesis doctoral, con el de ahora, el cambio es sorprendente. Por ejemplo, se ha multiplicado por seis la producción de patentes anuales. Al tener capacidad de ver más cosas, también somos capaces de hacer más cosas en menos tiempo. La pregunta después de esto es obvia, ¿cómo puedo con mis capacidades sacar provecho de la complejidad y el aumento en esta escala de tiempo?, ahí es donde veo la posibilidad de utilizar nuestras tecnologías para abordar la realidad de una forma más eficiente y ahí es donde entra el concepto de si somos capaces o no de hacer inteligentes nuestros sistemas, es donde surge la idea de la inteligencia artificial. “La inteligencia artificial nunca sustituirá a la humana” Definitivamente desde los años 80 la concepción que tenemos de inteligencia artificial ha evolucionado. ¿Cuáles han sido los mayores cambios que ha percibido? Los cambios, aunque recientes en el tiempo, son enormes. La inteligencia artificial de los años 80 no fue más allá de crear los llamados sistemas expertos, que no dejaban de ser aplicaciones diseñadas para automatizar procesos de toma de decisiones sencillas, siguiendo pautas rígidas utilizadas por expertos humanos y dentro de un conjunto de reglas perfectamente definidas, con cero ambigüedades y de orden finito. Es, por ejemplo, el ámbito de aplicaciones como los juegos automáticos de ajedrez. Han sido cambios disruptivos. Ahora estamos en la era de los sistemas cognitivos, en la que de verdad estamos dando un salto sustancial en la forma en la que entendemos la inteligencia artificial. Estamos hablando de máquinas que son capaces de entender el lenguaje humano de detectar ambigüedad de postular hipótesis y verificarlas y de tomar decisiones con atributos que cada vez se parecen más a la inteligencia 7 humana. Habréis visto ya probablemente una máquina que hemos lanzado que se llama el IBM Watson, la desarrollamos para un concurso de televisión en 2011 y con ella ganamos al campeón del mundo en contestar preguntas en lenguaje natural. Para nosotros, esto es el comienzo de una nueva era. Este sistema interpreta correctamente el lenguaje natural (no código informático), aprende de manera dinámica (en lugar de tener que ser reprogramado), razona (en el sentido de que es capaz de dar respuestas adecuadas a preguntas complejas) y tiene una incipiente capacidad de incorporar el contexto externo en su proceso de toma de decisiones. “La tecnología ya no trabaja para los músculos, trabaja para las neuronas” Hemos visto computadoras participando en Jeopardy o ganando a un campeón del mundo de ajedrez como Kasparov. ¿Hasta dónde puede llegar el poder de la computación? Bueno, lo primero yo siempre pienso que cuando hablamos de computación y hablamos de inteligencia artificial, nunca estamos hablando de la posibilidad de sustituir al ser humano. El ser humano está siempre por encima y los sistemas de información siempre van a ser una herramienta. En la medida en que la herramienta mejore, nuestras capacidades como seres humanos se van a multiplicar, no estamos hablando de sustitución del ser humano nunca. Hay teorías que ya se cuestionan cuando se va a poder construir una máquina que sea más inteligente que el ser humano, yo creo que eso está muy lejos en mucho aspectos y cerca en otros en el sentido en que sí podemos generar máquinas que tengan cierta capacidad de razonamiento, en un área muy concreta, mayor que la del ser humano pero nunca va a sustituirlo. Al contrario, el ser humano lo que va a hacer es elevarse, vamos a dejar de hacer unas cosas para hacer otras de mayor valor añadido. Siempre vamos a estar por encima de la máquina, nunca la máquina por encima nuestro, aunque tenga capacidad de hacer algunas cosas más rápido que nosotros. Año 2045 es la fecha que manejan los expertos como posible para desarrollar una máquina que, sólo en algunos aspectos concretos, supere al ser humano. Desde la propia Revolución Industrial las personas han tenido cierto recelo por que las máquinas pudieran reemplazarlos. Teniendo en cuenta que actualmente existen sistemas de recomendación personalizados que atienden al contexto del momento, ¿cómo tranquilizaría a todas esas personas que temen por la deshumanización de actividades tan típicamente humanas como tomar una decisión? Primero les diría que lo que hay que hacer es mirar a la historia con perspectiva. Esto ha pasado siempre, hemos tenido miedo a la llegada de los coches, a las bicicletas, a todo y en realidad toda la historia de la humanidad está llena de procesos de innovación, lo que nos pasa a nosotros es que cuando la innovación ocurre en la escala de tiempo de tu vida y es más disruptiva te da más miedo. Cuando uno estudia el PIB del mundo, hasta el siglo XVIII se puede decir que no pasó nada, a partir de la revolución industrial viene un período en el que el mundo progresó mucho y cuando analizas lo que pasaba es que desarrollamos tecnología para sustituir a los músculos de las personas. Desarrollamos una máquina y eso es lo que ha pasado hasta ahora, que la innovación ha trabajado para los músculos, y eso lo entendíamos. Lo que ocurre en este momento es que la tecnología ya no trabaja para los músculos, trabaja para las neuronas. Nos estamos dotando de herramientas que multipliquen la capacidad de pensar e interactuar y eso nos da un poco más de miedo. Eso sí ¿va la máquina a sustituir la inteligencia emocional?, nunca, yo creo que nunca. ¿Va a ser una máquina igual de inteligente que un hombre?, nunca. ¿Habrá aspectos concretos de procesos de razonamiento que desarrollamos lo seres humanos que podremos delegar en una máquina y que los haga mejor que nosotros?, seguro. Esto último va a ser muy importante en el progreso y en su velocidad para el desarrollo de la humanidad. ¿Por qué no ver entonces la tecnología como un facilitador para pensar, decidir y actuar con una dimensión mucho más esencialmente “humana”? Viendo toda esta innovación, ¿cómo nos va a ayudar a influir y actuar ante los nuevos cambios sociales? Esta nueva tecnología nos permite observar muchísimo más, generar más evidencia sobre esta realidad y abordar el comportamiento social y humano de una manera diferente. Hay un fenómeno que estamos viviendo ahora DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal que son las redes sociales, que abre unas posibilidades de interconexión inmensas. Hay quienes piensan que estas redes aislan más a las personas y las convierte más individualistas pero en realidad eres más social, lo que pasa es que socializas de una manera diferente, interactúas con más gente. ¿Qué es lo que pasa? Que como toda esa interacción se realiza con tecnologías, registras todo lo que está pasando, dejas una evidencia. Somos capaces de recoger toda esta información y de estudiarla y eso nos capacita para analizar cómo ocurren las relaciones humanas, cómo interaccionan las personas. Ello nos faculta para tomar mejores decisiones. Por ejemplo, hemos cerrado hace unas semanas un acuerdo con twitter que nos permite ofrecer a clientes la posibilidad de analizar dichas interacciones para cambiar los programas informáticos de esos clientes con el fin de que puedan tomar decisiones de negocio más acertadas. Básicamente, podemos leer lo que se dice, en base a ello saber como actúan diversos sectores de la sociedad y, de esta manera, construir un marketing o desarrollar una serie de productos que se ajusten mejor a la naturaleza de la sociedad actual. “Necesitamos profesionales como los data scientist para poder procesar los inmensos volúmenes de información” Hoy tenemos más tecnología para entender mejor las ciudades, la articulación más inteligente de estos espacios urbanos es fundamental en un mundo donde en 2050 más del 70% de la población vivirá en ellos. ¿Cómo van a ayudar las ciudades inteligentes a sus ciudadanos? ¿Qué aspectos estima van a ayudarles a mejorar su vida cotidiana? Somos capaces de poner una capa de inteligencia encima de las ciudades para haSomos capaces de poner una capa de inteligencia encima de las ciudades para hacer una vida cotidiana más fácil y mejor para todos. Vemos 3 pilares grandes de progreso: El primero es que las ciudades no analizan todavía toda la información que tienen, la red de transporte o energía por ejemplo; el segundo gran pilar es la anticipación, si eres capaz de anticipar los posibles riesgos o problemas de una ciudad creas mucho valor y hoy tenemos tecnología para poder anticipar fenómenos que puedan distorsio- nar; y el tercer elemento es la coordinación, que es donde más valor hay. Ahora mismo, los diferentes subsistemas que tiene una ciudad son bastante independientes no interactúan entre ellos. Hay gran valor en hacer interactuar todos ellos, el Big Data que nos ayude a construir el ecosistema de la ciudad y sacar mayores correlaciones y encontrar mejores soluciones. Aquí es donde vamos a encontrar el verdadero concepto de ciudad inteligente, en el conjunto de todas estas cuestiones. ¿En que aspectos se va a mejorar la vida cotidiana gracias a la inteligencia artificial? Vamos a ver una mejora en todo lo que nos rodea, no es nada en concreto, una mejor calidad de vida, porque mejoran todos los sistemas. Cuando los sistemas están entrelazados una mejora en uno de ellos hace que mejore todo. Por ejemplo, si tú mejoras el tráfico, reduces el nivel de contaminación, mejoras las condiciones para la sanidad, seguros, etc. Una ciudad inteligente no es otra cosa que una ciudad preparada para funcionar mejor, gastar de manera más eficiente, prevenir y adaptarse a las situaciones cambiantes y permitir una mayor capacidad de interacción, calidad de vida y participación a sus ciudadanos. Esta revolución que nos comenta requiere de dos cuestiones, nuevos tipos de científicos y nueva forma de hacer ciencia. ¿Puede indetificar las oportunidades, los retos de esta ciencia y esta tecnología, que convergen poco a poco en esta nueva forma de entender la inteligencia aplicada? Respecto a las capacidades, ahora tenemos mucha más información y capacidad analítica sobre lo que ocurre, el contexto por lo que me doto de mayor capacidad para tomar mejores decisiones. El primer problema que tengo es que hay que leer muchas cosas, son muy grandes en volumen, segundo, muchas de ellas no están estructuradas, es decir no son datos estructurados en una tabla. El 80% de este volumen de datos courre en conversaciones entre personas, en mensajes de textos, imágenes, vídeos, periódicos, etc. Esto implica retos tecnológicos y científicos, ¿tengo yo la capacidad de leer todo eso, interpretar, analizar, buscar las correlaciones y el conocimiento que voy a extraer de ahí? En la última década hemos asistido a la consolidación de nuevos profesiones de investigación como el data scientist, como la persona 9 el especialista quien debe hacer el diagnóstico, el que decide lo que hay que hacer. Recientemente, en una prestigiosa publicación científica aparecía un reportaje sobre el proyecto Sinapsia, al que llamaban el nuevo cerebro de IBM. ¿Qué aporta este proyecto al mundo de la inteligencia artificial? Es una importante revolución, hasta ahora, en el mundo del software hay una cosa en la que no le estamos ganando al cuerpo humano: la cantidad de especializada en entender correlaciones y procesar estos nuevos volúmenes de información. Entrar dentro de la información y buscar los algoritmos matemáticos o lógicos necesarios para extraer conocimiento para llegar a mejores conclusiones. Esta es una nueva área de capacitación que necesitamos en la sociedad. “En Europa tenemos un reto: que los resultados de la investigación básica generen valor directo en la sociedad” Cuando pienso en la aplicabilidad hay ejemplos muy significativos de estos nuevos sistemas cognitivos en el mundo de la medicina, en las instituciones financieras, en la interacción entre el ciudadano y las organizaciones públicas. Hemos creado un nuevo centro en Nueva York, el centro Watson, en el que nuestros clientes, personas, pueden acudir con retos, ideas para que nosotros busquemos soluciones tecnológicas. Puedo poner el ejemplo de unos estudios desarrollados por una universidad americana sobre la proteína P53, una proteína que es precursora de cáncer. Se le dotó a Watson con el conocimiento que había sobre medicina (hay que tener en cuenta que ahora en dos días generas tanta información como la que había generado toda la humanidad hasta el comienzo de este siglo) en Publimed, que cuenta con 23 millones de artículos, y se le solicitó a Watson que identificara enzimas que pudieran actuar contra el P53. Hoy en día, entre todos los investigadores mundiales trabajando en este campo, se encontra una enzima por año. Watson, en sólo unas semanas, encontró 6. Para probar la valía de Watson se hizo otra prueba, le dieron el Publimed con fecha 2003, con el conocimiento de entonces y se le hizo la misma pregunta. Encontró 9 de las cuales, posteriormente, 7 han resultado reales, válidas. Solamente leyendo el Publimed. Una prueba definitiva que demuestra la eficacia de computadoras como Watson. Un especialista en oncología para leerse todo lo que se publica necesitaría 160 horas por semana, sólo le quedan 8 para dormir, Watson lee todo ello y te puede asistir en el diagnóstico. Eso sí, es energía que necesitamos para hacer todas esas búsquedas y procesos. Cualquier supercomputadora necesita megawatios, una cantidad de consumo de energía brutal. En este momento un campo de investigación está centrado en la posibilidad de nuevos modelos de computación que fueran eficientes desde el punto de vista energético y se parecieran más a la computación del cuerpo humano que sólo necesita unos pocos watios (alrededor de 20) para el mismo esfuerzo. Estamos desarrollando tecnologías alternativas en las que se intentan simular la arquitectura del cuerpo humano. Es el proyecto SyNAPSE. Para que nos hagamos una idea de las cifras de esta iniciativa, estamos hablando de que con una potencia de 20mW/cm2 podemos tener un millón de neuronas programables. Es decir, podemos tener un superordenador en la palma de la mano. Cuando se pregunta cómo será la computadora del 2045, algunos apuntan a que será como los computadores de ahora pero sumando muchos juntos; otros creen que será como nuestro proyecto SyNAPSE (simulador de neuronas); y otros que piensan que será una cosa híbrida, que nos enchufaremos un acelerador en nuestro cerebro y eso nos dará la posibilidad de computación. Hay diferentes escuelas que estudian los caminos para llegar más rápidamente a tener una capacidad de computación mayor. Poner un acelerador al cerebro, copiar el cerebro o seguir escalando la capacidad. ¿Cuáles cree que van a ser los retos a los que va a tener que enfrentarse en general la industria y los investigadores? DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal De alguna manera, ya lo hemos comentado antes, es el reto de ser capaz de leer, entender y buscar correlaciones en un mundo dominado por los datos. El análisis de los datos es lo que nos dará el salto exponencial hacia el futuro. Tenemos que desarrollar tecnología que nos permita tratar estos datos de una manera estructurada y capacitar a los seres humanos, capacitar a profesionales que sepan utilizar esas tecnologías para ayudar a la sociedad a mover el futuro. “Soy optimista, el 99% de los científicos que ha tenido la Humanidad están hoy vivos” Ante la actual perspectiva en lo relativo a las políticas científicas europeas, nacionales y regionales, ¿cuál es el futuro que le augura al sector de la investigación y la innovación?. ¿Qué cambios cree que sería conveniente aplicar en las actuales estrategias de I+D+I para poder situarnos en un lugar competitivo global? Cuando miro el dato del apoyo que se le da en Europa a estos temas creo que es insuficiente teniendo en cuenta el reto al que se enfrenta nuestro continente. Europa tiene que competir con una demografía que no le es favorable y con un nivel de vida que tampoco le favorece para competir con otros mercados más emergentes. La única vía de competitividad es la generación de puestos de trabajo de mucho valor añadido y eso siempre está ligado a la capacidad que tienes de innovar. Los políticos todavía no se han dado cuenta de lo importante que es esto. No le dan el valor que le corresponde. También entiendo el contexto de limitación de recursos. Hay que hacer las cosas de manera más eficiente, no sólo dedicar más dinero. Aun así, no se están utilizando las colaboraciones público-privadas eficientemente porque yo creo que hay oportunidades y el sector privado esta dispuesto a poner dinero en esas oportunidades; siempre y cuando el sector público responda con unas garantías, con unos marcos adecuados para que eso tenga sentido. Ya hay mucha investigación básica en Europa y no estamos haciendo lo suficiente para fluir bien los resultados de esta investigación básica en valor directo para la sociedad. Transferir la investigación básica en valor real no implica mayor dinero sino mejor organización. Hay que darle valor y hacerlo mejor. ¿Cuál es su visión y la de IBM sobre el futuro? Yo creo que tenemos que ser extremadamente positivos hacia el futuro. Solo nosotros mismos podemos destruir nuestro futuro. Hay datos para la esperanza, por ejemplo, hoy en día el 99% de todos los científicos que han existido en la historia de la humanidad están vivos. Tenemos más capacidad de pensar que nunca. Por otra parte, hemos desarrollado tecnologías no que ayudan a nuestros músculos, sino que ayudan a nuestro cerebro a ser más potente y además hemos aumentando mucho la interconectividad en el mundo; la encefalización del mundo ha aumentando mucho, la interconexión entre el número de capacidades para generar nuevas capacidades. Esto nos lleva a la conclusión de que el progreso que el mundo puede tener debido a la tecnología es mucho más grande que nunca. Estamos ante una trasnformación que es exponencial, no es lineal. Nuestra única limitación es que a veces nos ponemos de acuerdo para romperlo en vez de para utilizarlo. El reto está en la sociedad, en organizarnos para ser capaces de absorber toda esta tecnología. ¿Volvería a iniciar toda su carrera desde la matemática, desde la ingeniería? Totalmente, no cambiaría nada, me da miedo cambiar cosas del pasado. Estoy bien ahora, así que esto quiere decir que todo lo que he hecho antes tiene que estar bien. Eso no significa que no haya cometido errores, pero he disfrutado mucho en esa intersección del mundo de la ciencia con el mundo de la empresa. Cruzando conocimientos diferentes para crear innovación. 11 RTO BIE NA AE NCI CIE Divulgación científica en Internet Alex Fernández Muerza. Periodista miembro de la Asociación Española de Periodismo Científico, de la European Union of Science Journalists Asociaton y socio fundador de la Asociación de Internautas Vascos. Ya no hay excusas para no hacer divulgación científica: Internet ha abierto unas enormes y asequibles posibilidades de acercar la ciencia a la sociedad. En una entrevista1 publicada en el diario asturiano La Nueva España, el pediatra y neurofisiólogo Eduard Estivill, ante la afirmación del entrevistador “ha vendido dos millones de ejemplares de ‘Duérmete niño’, pero también ha recibido muchas críticas”, respondía: “Los que critican mi método es que no han leído el libro o han leído Internet, un foro en el que la ciencia brilla por su ausencia y en el que pueden opinar pederastas y asesinos.” Por su parte, el escritor Juan Manuel de Prada aseguraba en una entrevista en el diario ABC que “Internet es la muerte de nuestra vida. Es la muerte de todo2”. Son dos de los diversos ejemplos de ataques a Internet que pueden oírse o leerse. El desconocimiento, el miedo a lo nuevo, al cambio, o el desprestigio hacia la discrepancia son algunas motivaciones que impulsan estas críticas. Sin embargo, precisamente por sus peculiares características, Internet es idóneo para la ciencia y su divulgación. Evidentemente, Internet también tiene sus inconvenientes; al fin y al cabo, se trata de una extensión del ‘mundo real’. Ahora bien, ¿no es más lógico combatir a quienes hacen mal uso, y aprovechar las nuevas ventajas? Como señala el responsable de la Cátedra de Cultura Científica (CCC) de la Universidad del País Vasco (UPV/EHU) Juan Ignacio Pérez Iglesias, en un dossier especial3 sobre divulgación científica de la revista de la Sociedad Española de Bioquímica y Biología Molecular (SEBBM) “hay que hacer uso de todo tipo de medios y soportes, utilizando materiales específicos para cada uno de ellos. Y es importante ensayar formatos nuevos, porque estamos asistiendo a la eclosión de modalidades de difusión de la ciencia que pueden proporcionar excelentes resultados.” Internet permite utilizar diversos registros y niveles de comunicación, enlaces hipertextuales para dirigirnos a otros trabajos o explicar conceptos, imágenes, videos, infografías interactivas, publicar, modificar y actualizar contenidos de manera instantánea con posibilidades mundiales de difusión, generalmente de forma gratuita, o con unos costes muy bajos, sobre todo en comparación con los demás medios de comunicación. Se trata de un medio en el que se puede ser tan breve o extenso como se quiera, y publicar tanto artículos super especializados como divulgativos o informativos, y llegar tanto a científicos como a la sociedad en general. Y sí, hablamos de medio. Internet es otro medio de comunicación, diferente a los existentes, que toma de los mismos ciertos elementos pero incorpora otros nuevos y evoluciona hacia nuevas formas de expresión, con nuevos soportes, como tabletas, teléfonos y televisiones inteligentes, libros electrónicos etc., que nos llevan a una Internet que será todo, independientemente del aparato y el lugar en el que esté. Por tanto, no será importante hablar del medio, sino del contenido. La mitad de la población española utilizó en 2013 los dispositivos móviles para conectarse a la Red, lo que supone un crecimiento del 28% con respecto a 2012, según datos del informe eEspaña 20134 . “Por sus peculiares características, Internet es idóneo para la ciencia y su divulgación” No resulta así extraño que Internet sea ya la primera fuente de información científica, por delante de la televisión, como señalaba el informe ‘Percepción Social de la Ciencia y la Tecnología en España’5 de la Fundación Española para la Ciencia y la Tecnología (FECYT). No obstante, el informe ‘Los públicos de la ciencia6’ , dirigido por el profesor de la Universidad Rey Juan Carlos (URJC) Luis Pablo Francescutti y editado por la Fundación Dr. Antoni Esteve, confirma también el importante desajuste entre los casi 17 millones de españoles que manifestaban su interés por la ciencia y la tecnología en la encuesta de la FECYT de 2010 y los 5 ó 6 millones que aproximadamente consumen esta información de manera habitual. CIENCIA EN ABIERTO - Divulgación científica en internet Internet y la divulgación de la ciencia El proceso de comunicación, divulgación e información de la ciencia ya no es igual desde la llegada de Internet. La divulgación ha visto cómo se amplían espectacularmente en Internet sus posibilidades. La aparición de nuevas iniciativas, tanto amateurs como profesionales, es cada vez mayor. El elemento de comunicación de los descubrimientos científicos, las revistas científicas, también se han visto afectadas por Internet. Nature es un claro ejemplo de apuesta por ampliar y mejorar su presencia en Internet, no sólo con sus contenidos de papel, sino con comunicación, divulgación e información adaptada a este medio, como blogs, ‘podcasts’ y ‘videocasts’ (grabaciones de audio o video similares a programas de radio y televisión), foros o espacios orientados a la comunidad, y llegar así a públicos más amplios que la propia comunidad científica interesados en la ciencia. Internet puede contribuir a frenar los cada vez mayores costes de la distribución en papel y a encontrar nuevas vías de negocio. “Internet es ya la primera fuente de información científica, por delante de la televisión, según datos de la FECYT” En la red se han creado los denominados ‘pre-prints’, artículos científicos de acceso libre que no han sido sometidos al sistema de revisión de pares de las revistas, de manera que se saltan el control y el tiempo de espera de éstas. Según Dídac Martínez, director del Servicio de Bibliotecas y Documentación de la Universitat Politècnica de Catalunya. (UPC), “la comunidad académica y científica debe recuperar el control de la difusión y acceso al nuevo conocimiento que surge de sus instalaciones y sobre todo del pensamiento y de la creación de sus miembros y apostar por el acceso libre. Con Internet tiene grandes oportunidades de hacerlo7.” Más recientemente, el Nobel de Medicina 2013 Randy Schekman señalaba públicamente su boicot a publicaciones como Nature, Science o Cell por el daño que a su juicio le hacen a la ciencia. “Son como diseñadores de moda o la cultura del bonus de Wall Street”, sentenciaba8. Las instituciones, universidades, centros de investigación o empresas ligadas a la ciencia y la tecnología, tanto públicas como privadas, son cada vez más conscientes de la importancia de comunicar y divulgar en Internet para dar a conocer investigaciones y productos que pueden resultar de interés a una sociedad a la que se deben, y de paso, promocionarse en la dura lucha por la financiación. La agencia espacial estadounidense (NASA), tanto su gabinete de comunicación como su web (http://www.nasa.gov) (pendientes incluso de los hispanoparlantes con webs como Ciencia@NASA (http://ciencia.nasa.gov) resultan paradigmáticos. En España, la web del Instituto Astrofísico de Canarias (http://www.iac.es) fue una de las primeras en hacer un esfuerzo divulgativo en Internet. Diversas instituciones han puesto en marcha webs de divulgación e información científica. EurekAlert! (http://www.eurekalert.org), desarrollado por la Asociación Estadounidense para el Avance de la Ciencia (AAAS); AlphaGalileo (http://www. alphagalileo.org) se dedica a difundir los avances de la investigación europea, “para compensar la omnipresencia de la actualidad científica estadounidense” según sus responsables; Agencia SINC (http://www.agenciasinc.es/), promovido por la FECYT, similar a las anteriores sólo que en español y para potenciar las noticias de la investigación española; Red de Unidades de Cultura Científica (UCC), puesta en marcha en 2007 por la FECYT, su objetivo es fomentar la divulgación para ciencia a la sociedad (http://comcired.fecyt.es); Mapping Ignorance (http:// mappingignorance.org/), una iniciativa de la CCC y de la Fundación Euskampus para difundir en inglés los avances científicos en general y los generados en España y el País Vasco en particular; o las iniciativas de la Fundación Elhuyar BasqueResearch (http://www.basqueresearch.com/), una web-puente para que los investigadores vascos den a conocer su trabajo a los medios de comunicación, con publicación en euskera, inglés y castellano, y Zientzia.net (http://www. zientzia.net/), con noticias en euskera sobre ciencia y tecnología, y enlaces a noticias destacadas de otros medios en inglés y francés. El trabajo de divulgación de los museos de ciencia se ve también trasladada a Internet. La Agencia SINC también ofrece un listado de los principales museos y planetarios españoles. (http://www.agenciasinc.es/Enlaces-de-la-ciencia/%28filtro%29/-Museos_y_planetarios#enlaces_ciencia). Las revistas de divulgación tienen página web en la que ofrecen los contenidos del papel y también exclusivos para Internet. Las más conocidas son Ça m’intéresse (http://www.caminteresse.fr), Discover Magazine (http://discovermagazine. com/), Focus (http://www.bbcfocusmagazine.com/), National Geographic (http:// www.nationalgeographic.com), o Popular Science (http://www.popsci.com); y en español Muy Interesante (http://www.muyinteresante.es) y Quo (http://www.quo.es). Algunas iniciativas han surgido solo en Internet, con una gran variedad, aunque la incapacidad para autofinanciarse ha hecho que algunas de ellas desaparezcan o dejen de actualizarse. Por poner algunos ejemplos: How Stuff Works (http://www.howstuffworks.com/), completo portal con explicaciones científicas sobre cómo funcionan las cosas; Space (http://www.space.com/), web de referencia para noticias astronómicas y del espacio; en español Divulgamat (http://www. divulgamat.net) sobre Matemáticas, etc. Las Asociaciones de periodistas, comunicadores, divulgadores y escritores de ciencia también tienen su presencia en Internet, como la Asociación Española de Comunicación Científica (AECC) (http://www.aecomunicacioncientifica.org), la Asociación Catalana de Comunicación Científica (ACCC) (http://www.accc.cat), la European Union Science Journalists’ Association (EUSJA) (http://www.eusja.org/), o la International Science Writers Association (ISWA) (http://internationalsciencewriters.org/). En este sentido, financiar la divulgación científica en Internet, e incluso vivir profesionalmente de ella, no es precisamente una tarea sencilla, según ponen en evidencia diversos estudios, como el Informe de Salarios de la Comunicación elaborado por la empresa Wellcomm, que señala que “lo digital se paga peor”9. Esta situación repercute evidentemente en la calidad de los contenidos. Internet también está proporcionando vías alternativas de financiación de trabajos científicos y de divulgación. Mediante la denominada “Gamification”, se realizan juegos, concursos, contenidos divertidos para llegar a un gran público. Por ejemplo, el certamen ‘Dance your Phd10’ (‘Baila tu tesis’) organizado por la revista Science y la AAAS propuso a científicos de todo el mundo que grabaran un video musical para explicar su tesis y ganar un viaje a EE.UU. La bilbaína Saioa Álvarez ganó la categoría de Química con un video que explica, al ritmo de Shakira, el proceso de creación de una mayonesa baja en grasas. 13 El crowdfunding, o financiación colectiva, permite a cualquier persona ayudar a un proyecto que le gusta, al aportar una cantidad de dinero. En España, este sistema ha pasado de recaudar 9,7 millones de euros en 2012 a 19,1 millones en 2013, y hay 53 plataformas generalistas y específicas, entre ellas dos específicas para temas científicos, según un informe de la web especializada en esta materia Infocrowdfunding.com. Por ejemplo, el reto SciFund, una iniciativa de crowdfunding creada en EE.UU. para investigadores de todo el mundo. Según12 Marisa Alonso Núñez, una investigadora que financió uno de sus trabajos con este sistema, lo novedoso es que “los propios científicos presentan sus proyectos de forma interesante y entendible para que la gente elija los que quiera financiar”. Tecnologías para divulgar en internet Internet ofrece multitud de posibilidades y herramientas multimedia para divulgar ciencia. En la actualidad la red se conoce como Web 2.0, un concepto que engloba tecnologías y aplicaciones para la colaboración y participación, y en las que la ciencia tampoco está al margen. Las redes sociales son tal vez uno de los servicios más conocidos. En estas webs sus usuarios pueden publicar contenidos para que los vean sus amigos u otras personas a las que se dé permiso, y buscar nuevas amistades o contactos. Los usuarios pueden así compartir contenidos, interactuar, crear comunidades y seguir temas sobre intereses similares. Facebook (http://www.facebook.com/), Twitter (http://twitter.com/), o Google+ (https://plus.google.com/) son las más conocidas, así como Linkedin (http://www. linkedin.com/), como red social profesional en la que también se pueden encontrar contenidos de divulgación. El fenómeno de los blogs, aunque un tanto eclipsado por las redes sociales, sigue teniendo un gran peso en el mundo de la divulgación científica en Internet. Entre sus ventajas destaca la facilidad con la que cualquiera, sin apenas conocimientos informáticos, puede tener y actualizar uno de manera gratuita, en plataformas como Blogger (http://www.blogger.com/) (hace falta tener una cuenta en Google), o WordPress (http://es.wordpress.com/). Por ello, cada vez son más los ‘blogueros’ que se lanzan a publicar blogs relacionados con ciencia, contabilizándose por centenas. Diversas webs ofrecen un listado de blogs de ciencia en los que también se mide su popularidad, como por ejemplo la lista de blogs de Alianzo (http://www.alianzo.com/es/top-ranking/Blog/media/cat/ciencia), la de Ebuzzing (http://labs.ebuzzing.es/top-blogs/ciencia) o la de Bitácoras (http:// bitacoras.com/top/bitacoras/categoria/ciencia). “Internet también está proporcionando vías alternativas de financiación de trabajos científicos y de divulgación” Además de los blogs individuales, también podemos encontrar ‘granjas de blogs’ o ‘blogs colectivos’ en los que varias personas se encargan de mantener y publicar contenidos en un mismo espacio. Por poner algunos ejemplos, en inglés se puede encontrar Science Blogs (http://scienceblogs.com/) y en español Naukas (http://naukas.com/), E-ciencia.com (http://e-ciencia.com/) o Hablando de ciencia (http://www.hablandodeciencia.com/). Como iniciativa del mundo universitario e institucional, Ehusfera (http://www.ehu.es/ehusfera/es/) de la UPV/EHU, o los de Madrimasd (http://www.madrimasd.org/blogs/). El Wiki es una aplicación de informática colaborativa que permite que varias personas puedan crear, actualizar y corregir documentos web de manera colectiva y sencilla. De todos los wikis, sin duda el que más participación y renombre ha conseguido es la Wikipedia (http://www.wikipedia.org), una enciclopedia on-line de contenido libre mantenida y administrada por la fundación norteamericana sin ánimo de lucro Wikimedia con la ayuda de cientos de voluntarios de todo el mundo. Las webs de ‘inteligencia colectiva’ tienen a los usuarios como protagonistas, ya que seleccionan la información para el resto de la comunidad. Se podría hablar básicamente de dos tipos. Por un lado, las informaciones son enviadas por los usuarios, que son publicadas si los editores de la web las consideran interesan- tes. Estas noticias luego pueden ser comentadas por los usuarios. La primera fue Slashdot, que cuenta con sección de Ciencia (http://science.slashdot.org/). La versión castellana de esta web más popular es Barrapunto, que también tiene un apartado para temas de Ciencia (http://ciencia.barrapunto.com/). Por otro lado, los usuarios envían historias que los demás usuarios del sitio pueden votar, moviendo las más votadas a la página principal. La primera en lanzar este concepto fue la estadounidense Digg (http://digg.com/). En castellano, la más popular es Meneame (http://www.meneame.net/). Una web más reciente basada en Meneame para contenidos específicos de divulgación científica es Divúlgame (http://www.divulgame.net/). Los ‘marcadores sociales’ permiten agregar los marcadores que se guardan en los navegadores y categorizarlos con un sistema de etiquetado. De esta manera, sus usuarios almacenan sitios webs, los comparten con otros usuarios, y conocen cuántos tienen un determinado tema guardado en sus marcadores. Entre estos servicios se puede destacar Delicious (http://delicious.com/) o Reddit (http://www.reddit.com/). Ante toda la cantidad de contenidos que puede encontrarse en Internet, uno de los peligros que se corre es el de la sobre información o saturación. Una forma de evitarlo es organizando los medios de los que se quiere estar actualizado. Para ello se pueden utilizar los ‘agregadores de contenido’, que reúnen información categorizada de forma automática gracias al sistema RSS, como Feedly (http://feedly.com/). “No hay que caer en la ‘tecnofobia’, pero tampoco en el ‘ombligismo’: La divulgación no se debe hacer para nosotros mismos, sino para los internautas, que en muchas ocasiones saben más que nosotros” Internet es ahora más multimedia que nunca, y si bien los contenidos de divulgación científica están un tanto dispersos, se pueden encontrar ejemplos interesantes, como ‘podcasts’ y ‘videocasts’ en webs tanto amateurs como profesionales (http://e-ciencia.com/blog/divulgacion/los-mejores-podcasts-de-ciencia/), sistemas de edición y publicación audiovisual on line con contenidos de ciencia muy diversos, como en Youtube (http://www.youtube.com) o Vimeo (http://www. vimeo.com), buscadores de videos de ciencia, como Science Hack (http://sciencehack.com), webs para publicar y compartir presentaciones tipo powerpoint en SlideShare (http://www.slideshare.net), webs para montarte una televisión en streaming (emisión en directo por Internet), como Livestream (http://www.livestream.com/), etc. En español destaca Indagando (http://www.indagando.tv/), una TV en streaming para divulgar contenidos de ciencia e innovación. Como herramientas para establecer conferencias entre dos o más usuarios, que pueden utilizarse como canales divulgativos, se pueden utilizar hoy programas de chat de texto, audio y video, como Skype (http://www.skype.com/) o Hangouts (http:// www.google.com/chat/video). CIENCIA EN ABIERTO - Divulgación científica en internet El movimiento es vertiginoso en Internet, y algunos expertos ya hablan de la llegada de la “web 3.0.”, marcada por su “inteligencia semántica” y su carácter móvil y ubicuo. Las nuevas tecnologías no corren, vuelan, pero su objetivo es ofrecer a los internautas más posibilidades. La siguiente versión del “lenguaje de Internet”, el html5, promete hacer la red mucho más interactiva, mientras que el concepto de ‘la nube’ (“cloud computing”) promete virtualizarlo todo. Las redes sociales generalistas, tipo Facebook, podrían dejar paso a otras más especializadas, para ajustarse a las características temáticas de sus responsables. Algunas ideas para mejorar la divulgación científica en Internet • No caer en la ‘tecnofobia’, pero tampoco en el ‘ombligismo’: La divulgación no se debe hacer para nosotros mismos, sino para los internautas, que en muchas ocasiones saben más que nosotros. Los géneros, lenguajes y formatos no son mejores ni peores, sino diferentes según a quién y cómo queramos llegar. • Seguir el ejemplo de las buenas iniciativas del mundo anglosajón, algunas de las cuales nos llevan mucha ventaja. • Profesionalización de los divulgadores digitales. La precarización laboral empeora la calidad y cantidad de las iniciativas de ciencia en Internet. • Conocer mejor a los internautas para afinar más en lo que quieren. • Formación en divulgación científica y digital. • Potenciación de una cultura divulgadora y digital entre los científicos, que puedan ser tanto fuente como divulgadores en sí. • Dar mayor peso en instituciones, universidades, empresas y centros de I+D a la divulgación de la ciencia en Internet, no sólo con contenidos corporativos. La Ciencia es cultura y la generalización del conocimiento y de una opinión pública informada y crítica fortalece la democracia. • Digitalización del conocimiento científico con acceso sencillo y público: Tesinas y tesis doctorales, revistas científicas, etc. • Creación y afianzamiento de iniciativas en Internet y no una copia de otros medios: webs multimedia, comunidades on-line participativas, videoconferencias con científicos, guías de expertos, sistemas de noticias especializadas para que los medios de comunicación amplíen sus contenidos de Ciencia, etc. Referencias [1] http://www.lne.es/secciones/noticia.jsp?pRef=2008052000_31_637940__ Oviedo-Media-hora-haciendo-cosas-bien-suficiente-para-educar) [2] http://www.abc.es/cultura/libros/20130113/abci-juanmanuel-prada-internet-201212272103.html [3] http://www.sebbm.com/173.htm [4] http://fundacionorange.es/fundacionorange/analisis/eespana/e_espana13.html [5] http://icono.fecyt.es/informesypublicaciones/Paginas/ Percepcion-Social-de-la-Ciencia.aspx [6] http://www.esteve.org/cuaderno-publicos-ciencia/ [7] Martínez, Dídac, “La crisis de las revistas científicas y las nuevas oportunidades de Internet”, Telos, http://sociedadinformacion.fundacion. telefonica.com/telos/articulotribuna.asp@idarticulo=2&rev=56.htm [8] http://www.elmundo.es/salud/2013/12/10/52a732c763fd3d00028b457e.html [9] http://www.trecebits.com/2013/01/15/asi-son-los-salariosde-los-profesionales-de-la-comunicacion-en-espana/ [10] http://news.sciencemag.org/people-events/2014/11/ dance-your-ph-d-winner-announced [11] http://www.infocrowdsourcing.com/crowdfunding-espana-2013-19-millones/ [12] http://e-ciencia.com/blog/noticias/ingenio-contra-la-crisis-elreto-scifund-una-nueva-forma-de-financiar-la-ciencia/ 15 RTO BIE NA AE NCI CIE Impresoras 3D, ¿la tercera revolución industrial? Alex Fernández Muerza Convierten en objetos reales diseños por ordenador de forma rápida, sencilla y económica. La nueva era de la innovación y la producción industrial se está imprimiendo en 3D. Daniel Omar estaba cuidando las vacas de su familia, en el sur de Sudán, cuando una bomba le dejó a sus 14 años sin ambas manos. Se calcula que el conflicto armado en la región ha causado unas 50.000 amputaciones. Tras conocer la historia, el productor audiovisual y filántropo estadounidense Mick Ebeling puso en marcha el ‘proyecto Daniel’ . Su objetivo: crear una prótesis por menos de cien dólares para Daniel1 y otros damnificados. El diseño se ha hecho libre de patentes y la tecnología de la impresión 3D ha hecho el resto. El hospital de las Montañas Nuba tiene ahora un laboratorio que ha fabricado un antebrazo artificial para Daniel y otras personas que no podrían permitirse de otra forma una prótesis convencional. La idea de las impresoras 3D es tan sencilla como revolucionaria. Consiste en crear objetos físicos a partir de un archivo modelado antes en un ordenador. “No me voy a poner cursi y decir que puedes hacer todo lo que imaginas, pero la impresión 3D tiene el inmenso potencial de hacer muchas cosas de forma di- ferente, pura innovación. Lo mejor está por descubrir. Además, en combinación con un escáner 3D, las aplicaciones se multiplican”. Son palabras de Jon Bengoetxea, responsable de Tumaker, una empresa con sede en Oiartzun (Gipuzkoa) que ha desarrollado ‘Voladora’, una impresora 3D con tecnología 100% vasca. Diversos analistas y medios como The Economist apuntan2 a las impresoras 3D como la cabeza visible de una ‘Tercera Revolución Industrial’, en la que se apuesta por la calidad, la innovación y los productos hechos de forma local, a pequeña escala y a medida. El periodista y emprendedor en Internet Nicolás Boullosa explica3 que “las grandes factorías instaladas en países emergentes, fruto de las economías de escala, cederán protagonismo a talleres de profesionales, de nuevo en los países desarrollados”. “La impresión 3D puede solucionar, y de hecho está haciéndolo, muchos problemas en diversos campos de la ciencia y la tecnología” ‘The Open Shoes’ sería, siguiendo dicho criterio, una iniciativa de esta nueva era industrial. Seleccionada por su originalidad por Innobasque, la Agencia Vasca de Innovación, propone acercar a los ciudadanos el ‘calzado de bienestar’, de manera que cualquiera pueda disponer de un calzado adaptado a sus características fisiológicas. Según uno de sus impulsores, Javier Bustamante, “la impresión 3D puede solucionar, y de hecho está haciéndolo, muchos problemas en diversos campos de la ciencia y la tecnología. Y sirve para acelerar y abaratar muchos procesos. Hace unos años para un prototipo de un producto se podía tardar meses o incluso años y si había que modificarlo ocasionaba unos costes elevadísimos que hacía que muchos se quedasen por el camino. Hoy en día, una vez diseñado, se puede imprimir en unas horas y, si no funciona, modificarlo y volver a imprimirlo.” CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial? Posibilidades inmensas Empresas de sectores muy diversos utilizan ya impresoras 3D para generar prototipos de productos, piezas, o utillaje para sus procesos de fabricación; en formación profesional y universidades para crear prototipos e incluso objetos funcionales que aplican a robótica, electrónica, mecánica, arquitectura, etc.; o en laboratorios de investigación para hacer a medida sus propias herramientas. En 2013, según diversos datos manejados por Bengoetxea, la cifra de negocio movida por la industria de las impresoras 3D alcanzó los 895 millones de euros, y hay estudios que estiman que para 2025 podría rondar una horquilla entre los 3.200 y los 47.000 millones de euros. Szilárd Kados, diseñador gráfico e ingeniero 3D en DeustoTech, el Instituto de Tecnología de la Universidad de Deusto, señala otras estimaciones para 2013 en torno a los 2.000 millones de euros y unas previsiones de incremento del 600% para 2018. A medida que su uso se diversifica y generaliza, las impresoras 3D y sus resultados se pueden ver tanto en el espacio como en la casa de algún entusiasta de esta tecnología. La Agencia Espacial Estadounidense (NASA) ha llevado a la Estación Espacial Internacional la ‘Zero-G’, una impresora 3D para estudiar las posibilidades de imprimir objetos 3D a bordo de las naves espaciales. Los astronautas serían así más autónomos y no dependerían del suministro de nuevas piezas o elementos desde la Tierra, esencial para misiones a otros planetas. La Agencia Espacial Europea (ESA) ha puesto en marcha el proyecto ‘Amaze’ para el desarrollo de estas técnicas, mientras que organizaciones como Inspiration Mars Foundation o Mars Wane las consideran claves para que dentro de unas pocas décadas haya colonias con humanos en el planeta rojo. Sin necesidad de ir al espacio, el aspecto de la distribución y la logística es otra cuestión que cambiará por completo. Como señala Javier Pedreira ‘Wicho’, uno de los autores del blog tecnológico Microsiervos, “en un lugar aislado, con tal de tener una impresora 3D y el material en bruto necesario se podrían fabricar repuestos o suministros que hicieran falta sin depender de que nadie los haga llegar allí.” 4 La impresión 3D se adapta a las necesidades de sus usuarios, de manera que se pueden hacer desde piezas diminutas hasta productos más grandes como edificios o automóviles. La empresa china Winsun New Materials construye viviendas en un día a partir de piezas impresas prefabricadas. El estudio de arquitectura danés Eentileen y la empresa Facit Homes, especializada en crear casas personalizadas, pusieron en pie la Villa Asserbo, una vivienda unifamiliar a partir de diseños 3D. En Ámsterdam, el estudio Dus Architect’s ha diseñado un edificio, Print Canal House, con una impresora 3D creada para que pudiera fabricar las piezas con las dimensiones requeridas. Los diseñadores londinenses Zero Zero han inventado un sistema para construir espacios habitables con componentes que pueden obtenerse en Internet, para imprimirse y montarse en cualquier lugar. Según sus responsables, la impresión 3D abarata costes y reduce el impacto ambiental de la construcción. Kor Ecologic es una empresa canadiense que ha creado el ‘Urbee’, un coche híbrido con piezas obtenidas en una impresora 3D. El vehículo recorre 100 kilómetros con 0,86 litros de biocombustible y ha costado 55.000 euros, la mitad de lo que hubiera supuesto con métodos convencionales. Un equipo de la academia de ingeniería blea Group T ha creado ‘Areion’, un pequeño coche de carreras cuya gran mayoría de piezas se han impreso en 3D a partir de un modelo digital. “La impresión 3D se adapta a las necesidades de sus usuarios, de manera que se pueden hacer desde piezas diminutas hasta productos más grandes como edificios o automóviles” El sector médico-sanitario es uno de los que más puede beneficiarse. Además de la citada prótesis del joven Omar, otro caso llamativo es el de Kaiba Gionfriddo, un bebé de seis semanas incapaz de respirar por si solo que salvó la vida gracias a una tráquea artificial impresa en 3D por un equipo de la Universidad de Michigan (EE.UU.). Bespoke Innovations, con sede en San Francisco (EE. UU.), produce prótesis personalizadas con un menor coste que las tradicionales. Organovo trabaja en el desarrollo de ‘bioprinters’, para la creación de órganos humanos con impresoras 3D a partir de células madre. Sin ir tan lejos como la creación sintética de órganos para trasplantes, se baraja la posibilidad de crear copias de órganos impresas en plástico u otro material sencillo para practicar operaciones complejas antes de hacerlas con el paciente. El mundo de la ciencia también puede sacarle mucho partido. Un equipo del Imperial College de Londres han creado las ‘sculplexity’, esculturas creadas con impresoras 3D para llevar a la realidad conceptos matemáticos. 17 Impresión 3D para todos los públicos El responsable de Tumaker diferencia entre las empresas que ofrecen productos muy sofisticados y de nicho para diferentes sectores de la industria, como Stratasys y 3D Systems, y las empresas que ofrecen “impresoras 3D personales”. Ahora bien, la idea de tener una en casa, al igual que la típica para imprimir en papel, se encuentra todavía algo lejos. Según Bengoetxea, se pueden encontrar impresoras 3D “en formato kit” que pueden rondar los 300-400 euros, pero para sacarles rendimiento hay que saber montarlas y usarlas, y para ello hace falta invertir “más tiempo del que normalmente se está dispuesto”. Bustamante recomienda a quien quiera comprarse una que piense antes para qué la quiere: “hay que saber diseñar en 3D. Si no, se va a dedicar únicamente a descargarse de Internet diseños ya realizados por otros usuarios.” ¿Cómo funciona una impresora 3D? “Se pueden encontrar impresoras 3D “en formato kit” que pueden rondar los 300-400 euros, pero para sacarles rendimiento hay que saber montarlas y usarlas, y para ello hace falta invertir más tiempo del que normalmente se está dispuesto” La impresión 3D no es una recién llegada. Hace 31 años, el estadounidense Chuck Hull ideó el primer método de impresión 3D: la estereolitografía. Tres años después fundó la compañía 3D Systems y comenzó a comercializar las primeras máquinas de impresión estereolitográficas. A partir de entonces, como explica Bengoetxea, se desarrollan diferentes tecnologías de impresión 3D, entre ellas las de modelado por deposición fundida, la utilizada normalmente en los modelos personales. Por otra parte, se encuentran las impresoras 3D “Out-of-the-box”, listas para imprimir una vez se sacan de su caja. Bengoetxea señala que, dependiendo de características y funcionalidades, pueden costar entre 1.000 y 2.000 euros, “pero ofrecen fiabilidad y calidad profesional y se empiezan a aproximar en usabilidad y coste a lo que las personas no expertas pueden esperar.” Su empresa ha apostado por uno de estos modelos con la denominada ‘Voladora V2’. “La posibilidad de replicar cualquier producto aumentará los problemas con la vulneración de patentes o los derechos de autor” Mientras llega el momento, al igual que otras tecnologías, en el que la facilidad de uso y precio las haga asequibles a un gran público, se puede optar por las El proceso de creación comienza con el diseño del objeto. Para ello pueden utilizarse diversos programas informáticos, como SketchUp o Wings 3D, de manera que el objeto realizado se pueda imprimir por adición, es decir, añadiendo material capa a capa. Plásticos de diversos tipos, goma, papel o metales como el aluminio son algunos materiales utilizados. Las piezas se pueden fabricar sin juntas, de manera que son más sólidas, y más ligeras. empresas que ofrecen impresiones 3D. Kados diferencia entre las impresoras 3D patentadas y las de ‘código abierto’ (ambas se pueden encontrar en Euskadi). Las primeras, casi todas con tecnología patentada en EE.UU., se distribuyen por diversas empresas e incluso ofrecen la posibilidad de imprimir modelos 3D, como el propio DeustoTech. Las segundas permiten que cualquier empresa pueda desarrollar su propia impresora 3D y venderla, como Tumaker. Las aplicaciones más ‘domésticas’ son cada vez más diversas y originales: juguetes personalizados por la empresa Imaginarium; platos de comida originales por la empresa barcelonesa Natural Machines; zapatillas de atletismo para mejorar el rendimiento de los corredores por marcas como Puma, Nike o Adi- CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial? Desafíos de las impresoras 3D Las impresoras 3D deberán hacer frente a una serie de desafíos y dificultades, además del citado precio elevado y su falta de usabilidad para lograr su generalización: Velocidad: El responsable de ‘The Open Shoes’ explica que las actuales tienen unas velocidades máximas “que según para qué usos pueden ser bastante lentas, aunque ya hay en marcha proyectos que prometen solucionarlo.” Conflictos legales y éticos: La posibilidad de replicar cualquier producto aumentará los problemas con la vulneración de patentes o los derechos de autor. Por su parte, como expone5 Eduardo Paz, consultor especializado en marketing y tecnología, abrirá nuevos problemas relacionados con la manipulación del ADN, la clonación humana, o la creación de órganos humanos, e incluso con la posibilidad de hacer drogas de diseño. Además, este experto recuerda el tema de la responsabilidad del fabricante: ¿Quién se hace cargo si por ejemplo falla un casco hecho con una impresora 3D y su usuario se rompe el cuello? Seguridad: En 2013 se creaba en EE.UU. ‘Liberator’, la primera pistola hecha con una impresora 3D a base de plástico. Aunque su fabricación fue más costosa que la de una pistola convencional similar, abrió la polémica de que cualquiera puede hacerse un arma sin necesidad de los necesarios permisos legales. Photobump es un programa informático que permite duplicar cualquier llave a partir de la foto de una cerradura e imprimir una copia para abrirla. Sus autores, los ingenieros Jos Weyers y Christian Holler, pretenden dejar en evidencia que las cerraduras de pistones se han quedado obsoletas. Asimismo, los materiales que entren en contacto con alimentos deberían contar con las mismas garantías de seguridad que los utilizados por la industria alimentaria. Impacto ambiental: Al producir objetos a medida, reducen el impacto ambiental que supone la producción en masa, pero también tienen otros inconvenientes para el medio ambiente, como un alto consumo de energía, la utilización de materiales contaminantes, la generación de residuos, o la dependencia de los plásticos. Por ello ya se habla de buscar nuevos materiales biodegradables o reutilizables y un uso más eficiente de los recursos. das; joyas con diseños únicos por la neoyorquina American Pearl; miniaturas 3D para la reconstrucción de la escena de un crimen por la policía de Tokio; réplicas exactas de cuadros famosos por la compañía rusa Prixel; vestidos a medida para la actriz y bailarina Dita Von Teese; carcasas para teléfonos móviles por Nokia; auriculares que encajan a la perfección en los oídos por la empresa neoyorquina Normal; el busto del presidente de EE.UU. ,Barack Obama, por un equipo del Instituto Smithsonian; y un etc. que se irá viendo en los próximos años. Como señala Bengoetxea, “acabamos de entrar en un proceso donde las personas fabricarán casi cualquier cosa estén donde estén y cuando lo necesiten. Casi nada.” Referencias [1] http://www.notimpossiblelabs.com/#!project-daniel/c1imu [2] http://www.economist.com/node/21553017 [3] http://faircompanies.com/news/view/impresoras-3d-10productos-cotidianos-que-pueden-imprimirse/ [4] http://www.rtve.es/noticias/20131019/impresion-3d-metal-prometerevolucionar-forma-se-fabrican-muchas-cosas/769460.shtml [5] http://eduardopaz.com/10-problemas-o-peligros-de-las-impresoras-3d/ 19 IVO NV NE IGA CIÓ EST INV Mehr Licht! Ricardo Díez Muiño. Director del Centro de Física de Materiales CSIC-UPV/EHU y Director del Donostia International Physics Center, Donostia – San Sebastián. De la misma manera que al entrar en una habitación a oscuras buscamos automáticamente con la mano el interruptor que nos permite iluminar el entorno, muchos físicos recurren de forma casi instintiva a la luz para orientarse en el mundo microscópico y entender cómo funciona la materia en la escala atómica. Este texto hace un breve repaso de la información que podemos adquirir al hacer incidir luz sobre sistemas de muy distinto tamaño y recoger los electrones que son emitidos en procesos de fotoemisión. Cuenta la leyenda que al comienzo de la primavera de 1832, en su último momento de lucidez antes de morir, el escritor alemán Johann Wolfgang von Goethe gritó con voz quejumbrosa “mehr Licht!”, “¡más luz!”. Quizás porque la expresión cuadra perfectamente con el temperamento del romántico Goethe, capaz de vender su alma al diablo, al menos en la ficción, por un amor de juventud, esta frase se ha dado por cierta y ha generado no pocas interpretaciones. La más literaria y humana es que Goethe sentía la sombra oscura de la muerte acercándose y reclamaba, ansioso, un poco más de vida, una prolongación de su tiempo. Una interpretación más prosaica y no sé si más verosímil, es que Goethe simplemente solicitaba a una de sus asistentes que descorriera las cortinas de la ventana que daba al jardín para poder contemplar mejor la luz de la mañana. En cualquier caso, lo que parece muy poco probable es que con sus últimas palabras el bueno de Goethe estuviera reclamando estudios científicos más profundos sobre la naturaleza de la luz. A pesar de lo que pueda parecer, no sería esta nueva explicación de sus últimas palabras una teoría tan descabellada, puesto que en el siglo XIX la separación entre las disciplinas artísticas y científicas era menos acusada que en la actualidad. El propio Goethe era científico además de poeta, estaba en estrecho contacto con investigadores de su época y llegó a publicar incluso un libro de óptica en el que teorizaba sobre el fenómeno del color. A buen seguro que, de encontrarse en una situación vital más sosegada, Goethe hubiera reivindicado con firmeza más avances científicos sobre la luz. El hecho de que sea la primera de las interpretaciones, la literaria, la que más aceptación haya encontrado es debido probablemente al simbolismo que la luz ha tenido siempre para el ser humano. La luz nos saca de la oscuridad, ilumina Figura 1. Además de sus obras literarias, Johann Wolfgang von Goethe (1749-1832) publicó varios trabajos científicos, entre ellos uno sobre la naturaleza de la luz y el color (Teoría de los colores, 1810). INVESTIGACIÓN EN VIVO - Mehr Licht! nuestro mundo y es por tanto ayuda para el conocimiento de nuestro entorno. Ya en la tradición bíblica se dice que Dios vio que la luz era buena y que separó la luz de las tinieblas que cubrían el abismo. Arrojar luz sobre cualquier problema significa descubrir sus recovecos para poder afrontarlo de una manera más eficaz. Es la misma metáfora que llevó a llamar al siglo XVIII, aquel en el que se extendió el uso de la razón y el análisis para mejorar nuestra comprensión del mundo, el Siglo de las Luces. “La luz nos saca de la oscuridad, ilumina nuestro mundo y es por tanto ayuda para el conocimiento de nuestro entorno” La iluminación de un objeto nos permite por tanto acceder a él en todos sus detalles. Pero hacer incidir luz sobre él puede ser también una forma de transmitirle energía. La luz solar focalizada por una lente es capaz de prender una llama y crear fuego. La energía transportada por la luz puede llegar incluso a romper el objeto, de la misma forma que las pistolas-láser en cualquier película de ciencia-ficción son capaces de agujerear las avanzadas armaduras protectoras de los soldados enemigos. Somos por tanto capaces de recoger información, pero también de modificar y romper cosas con la luz. Vamos a hablar en los párrafos siguientes de luz, del lugar en que se encuentra nuestro conocimiento actual de la luz y de algunos de los papeles protagonistas que ha adquirido en la ciencia actual, en particular cuando actúa en feliz pareja con otro de los grandes nombres de nuestro universo científico, el electrón. Recordando a los grandes Aunque el progreso en la descripción científica de la naturaleza y efectos de la luz, como en cualquier otro problema científico, esté basado en numerosas contribuciones históricas que incluyen grandes nombres de la física como Newton o Maxwell y que han ido ampliando la frontera de nuestro conocimiento, existe una fecha que podríamos considerar clave en la comprensión actual de la interacción entre luz y materia: 1905, el Annus Mirabilis de Albert Einstein, el año en el que el físico alemán (después suizo y estadounidense) publicó en la entonces prestigiosa revista alemana Annalen der Physik cinco artículos históricos, básicos para el desarrollo de gran parte de la física moderna. Entre estos cinco artículos, hay tan solo uno que el propio Einstein calificó en su momento como ‘revolucionario’, aquel titulado ‘Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz’, en el que proponía la propagación de la luz a partir de la existencia de ‘un número finito de cuantos de energía localizados en puntos del espacio que se mueven sin dividirse y solo pueden ser absorbidos o generados como unidades completas’. El nuevo planteamiento de Einstein suponía cuestionar la validez ilimitada de la teoría de la luz de Maxwell, que se basaba en una distribución continua de la energía del campo electromagnético. Maxwell, por quien Einstein sentía un enorme respeto intelectual, había sido capaz de formalizar matemáticamente gran parte de los avances que en la descripción de la electricidad y magnetismo se habían producido durante el siglo XIX, convirtiéndose en uno de los gigantes históricos de la física. El artículo de Einstein era por tanto una forma de rizar el rizo, de complementar y ampliar los trabajos de Maxwell, que eran ya reconocidos como uno de los grandes hitos en la historia de la física. Unos años más tarde, en 1916, los cuantos de luz de Einstein se transformaron en auténticas partículas cuando él mismo propuso que estos cuantos no solo intercambiaban energía con la materia sino también cantidad de movimiento en una dirección determinada. Desde entonces, hemos aprendido a convivir con la enrevesada naturaleza de la luz, cuya descripción exige en ocasiones considerar que es una onda y en otras que es una partícula. Es la dualidad onda-corpúsculo. Diez años después, en 1926, las partículas de luz recibieron su bautismo y adquirieron el nombre de fotones gracias a un oficiante inesperado, el químico americano Gilbert N. Lewis, uno de los científicos que más veces estuvo cerca de obtener el Premio Nobel (se dice que hasta 35) sin llegar a conseguirlo nunca. Lewis acuñó por primera vez la palabra fotón en una carta a la revista Nature, aunque su idea sobre las partículas de luz difería ligeramente de la de Einstein. Pero el término fotón pervivió. El artículo de Einstein del año 1905 es la primera descripción teórica del efecto fotoeléctrico en términos de la absorción de fotones. En un proceso fotoeléctrico, un sistema cualquiera absorbe luz y utiliza esta energía absorbida para excitar electrones que pueden ser recogidos en el exterior. Dicho de otra forma, el fotón, la luz, desaparece y, en una especie de sacrificio generoso, su energía sirve para liberar un electrón. El hecho de que la energía aportada por la luz tenga que ser absorbida en forma de paquetes, de cuantos de energía bien definida, y no en la forma continua derivada de las ecuaciones de Maxwell, ha supuesto, como bien planteaba el propio Einstein, una verdadera revolución en la descripción de la interacción entre luz y materia. Recogiendo electrones El efecto fotoeléctrico o, de otra forma, el proceso de fotoemisión electrónica es la base a partir de la cual se han desarrollado infinidad de técnicas experimentales de caracterización y espectroscopía, tanto de átomos y moléculas en fase gaseosa como de superficies, nanoestructuras y sólidos. En todas estas técnicas, la luz funciona como una sonda, como una herramienta que utilizamos para extraer información, en este caso en forma de electrones, de nuestro sistema. Uno de los aspectos más interesantes de las técnicas de fotoemisión es que, dependiendo de la energía del haz que hacemos incidir sobre la muestra, podemos tener acceso a informaciones muy distintas sobre los sistemas que estudiamos. “Hemos aprendido a convivir con la enrevesada naturaleza de la luz, cuya descripción exige en ocasiones considerar que es una onda y en otras que es una partícula” Desde un punto de vista general, los electrones que conforman la materia pueden estar muy ligados (necesitamos mucha energía para arrancarlos) o poco ligados (necesitamos menos energía). Son estos últimos, los electrones poco ligados, los denominados de valencia, los electrones relevantes en los procesos Figura 2. Densidad electrónica inducida en función de la distancia y el tiempo cuando introducimos una partícula cargada en un medio metálico. El apantallamiento se produce en tiempos ultrarrápidos, por debajo del atosegundo [A. Borisov et al. Chem. Phys. Lett. 387 95 (2004); 21 Figura 3. Átomos adsorbidos pueden transferir electrones a la superficie después de ser excitados con luz. [R. Díez Muiño et al. PNAS 108, 971 (2011)] químicos. Son los que forman los enlaces y por tanto los responsables de que distintos átomos se junten o separen, una especie de ‘pegamento’ de la materia. Para extraer estos electrones de valencia de cualquier material necesitamos luz de frecuencia ultravioleta. Las técnicas de fotoemisión a partir de radiación ultravioleta, por tanto, nos proporcionan acceso a las propiedades electrónicas y químicas de los materiales y, de hecho, han sido la herramienta fundamental para acceder de forma experimental a la distribución periódica de los electrones en los sólidos cristalinos y para verificar la precisión de la descripción de estas propiedades en términos de su estructura de bandas. Distinto es el caso de los electrones más ligados, aquellos que están más cercanos a los núcleos de los átomos y se sienten fuertemente atraídos por la carga de estos últimos. La extracción de estos electrones exige radiación de mayor energía, en la zona de los rayos X del espectro electromagnético. Una de las ventajas de fotoemitir estos electrones es que su energía de ligadura está definida de forma más precisa y es, en general, específica de cada átomo, similar a una huella dactilar. El espectro de fotoemisión por rayos X de un material es así una especie de identificación por huellas dactilares de los materiales, una potente herramienta de análisis químico. “La aparición de nuevas fuentes láser con pulsos extremadamente cortos nos ha permitido adentrarnos en el mundo ultrarrápido, en la química del femtosegundo y en la física del atosegundo” En general, de la misma forma que en las películas americanas de cine clásico los heroicos protagonistas que se escapan de infernales prisiones encuentran todo tipo de dificultades y peleas antes de llegar a su destino, los electrones fotoemitidos, en su huida hacia el detector experimental que los espera con los brazos abiertos, encuentran otros átomos de material y sufren desvíos y colisiones. Algunos de estos electrones, los menos afortunados, no cumplen su objetivo final de escapar del sistema pero los más exitosos, los que sí lo consiguen, son testigos valiosísimos, si sabemos preguntarles adecuadamente, de la conformación estructural del lugar del que vienen. La difracción de fotoelectrones y, en particular, de aquellos electrones que provienen de las capas más internas de un material y son excitados con rayos X, es por tanto una excelente herramienta para estudiar las propiedades estructurales de sólidos, superficies y nanoestructuras. El desarrollo de herramientas teóricas basadas en la simulación de las colisiones elásticas experimentadas por los electrones en su salida hacia el vacío partiendo de determinadas geometrías y la comparación de los resultados así obtenidos con la evidencia experimental es una fantástica puerta de acceso a la información estructural. Variar la energía de la luz incidente nos permite por tanto seleccionar el tipo de información que podemos extraer de un determinado sistema. Podemos acceder a sus propiedades electrónicas, químicas o estructurales. Pero las propiedades de coherencia o incoherencia de la luz incidente y la selección de los tiempos en los que enviamos pulsos de luz nos permiten también acceder a información desde un punto de vista totalmente distinto. La aparición de nuevas fuentes láser con pulsos extremadamente cortos y el desarrollo de técnicas experimentales basadas en ellos nos ha permitido adentrarnos en el mundo ultrarrápido, en la química del femtosegundo y en la física del atosegundo. Un femtosegundo es la mil billonésima parte de un segundo y un atosegundo mil veces menos, la trillónesima parte de un segundo. Para hacernos una idea de las dimensiones de las que estamos hablando, en las que es fácil perderse: la proporción entre un atosegundo y diez segundos es aproximadamente la misma que entre diez segundos y la edad del Universo. Entre 1964 y 2001, el año en que se generó el primer pulso laser de duración inferior al femtosegundo, la duración de estos pulsos se ha reducido en tres órdenes de magnitud. Nos hemos garantizado así el acceso a una escala temporal totalmente nueva que estamos comenzando a explorar con un nivel de detalle impensable en el pasado. El salto cualitativo que supone acceder a la escala del atosegundo en el estudio de las propiedades electrónicas es espectacular, parecido al salto que supuso el paso de la fotografía fija al cine. En la actualidad, es posible obtener ‘películas’ de la dinámica molecular con resolución espacial inferior al Angstrom y resolución temporal inferior al femtosegundo. INVESTIGACIÓN EN VIVO - Mehr Licht! Figura 4. La variación en las propiedades ópticas de las nanoestructuras dependiendo de su forma, composición, tamaño o estructura puede convertirlas en fantásticos sensores químicos [ver por ejemplo M. Ameen Poyli, J. of Phys. Chem. 3, 2556 (2012)]. La luz no solo nos da una llave de entrada genérica al mundo del atosegundo; en realidad nos abre las puertas a varios submundos distintos, cada uno de ellos con sus peculiaridades propias. La fotoemisión permite avanzar en la comprensión de las propiedades electrónicas y la estructura de bandas de sistemas cristalinos macroscópicos, de superficies, pero también de átomos y moléculas, o de nanoestructuras. Nos permite estudiar el enorme rango de distancias en que se mueve la materia que conforma nuestro mundo, desde la física atómica y molecular hasta la física de materia condensada. Y en muchos de estos casos, además, nos adentra en el universo cuántico, un mundo en el que nuestra intuición macroscópica deja de ser válida y los fenómenos físicos y químicos resultan, cuando menos, sorprendentes. Vamos a proporcionar a continuación algunos ejemplos de ello, haciendo un recorrido progresivo desde sistemas que podemos considerar grandes (sólidos y superficies) hasta aquellos de tamaño inferior (nanopartículas y moléculas). “En medios metálicos típicos, el apantallamiento se produce en una escala de tiempos inferior al femtosegundo” Creando cuasipartículas El acceso experimental a tiempos ultracortos en la interacción de luz y materia ha permitido no solamente dar muchas respuestas sino también plantear nuevas preguntas y avanzar en territorios que hasta ahora eran únicamente campo de especulaciones teóricas. Un ejemplo de esta situación es el tiempo que tarda una carga en apantallarse en un medio metálico, uno de los fenómenos más complejos en física de la materia condensada. Cuando una carga eléctrica aparece en un metal, los electrones de este último reaccionan a su presencia modificando su posición, tratando de neutralizar su efecto y haciendo desaparecer el campo eléctrico a largas distancias. Este fenómeno, conocido como apantallamiento, es aún más difícil de describir cuando la carga externa está moviéndose y la densidad electrónica del metal tiene que reacomodarse a cada instante para contrarrestar a la partícula viajera. La imagen más habitual para visualizar de manera simplificada la dinámica de esta carga y su densidad electrónica de apantallamiento sería la de una lancha motora desplazándose por el agua y creando en su derredor y, principalmente, en su parte posterior, una estela de agua de naturaleza ondulatoria. Un electrón fotoemitido desde un metal es un buen ejemplo de esta situación. El hueco de carga que deja detrás de sí este electrón también acaba apantallándose y este proceso ha de tenerse en cuenta para una interpretación precisa de los resultados experimentales de muchas espectroscopías. En su intento de simplificar la descripción de la carga externa más la nube de densidad electrónica que le acompaña, los físicos de materia condensada agrupan a todo este conjunto y lo tratan como una ‘cuasipartícula’, una entidad distinta. Desde una perspectiva temporal, la pregunta obvia que surge es cuánto tiempo tarda en crearse el apantallamiento dinámico de una carga, es decir, cuál es el tiempo de creación de una cuasipartícula. La respuesta, basada tanto en medidas de la termalización de electrones como en cálculos de primeros principios, es que el apantallamiento y la aparición de efectos colectivos en el sólido no aparecen instantáneamente sino que requieren un tiempo finito para ser creados y que este tiempo depende además de la frecuencia de plasma del medio. En medios metálicos típicos, el apantallamiento se produce en una escala de tiempos inferior al femtosegundo. Es este por tanto un buen ejemplo de los nuevos conceptos que es necesario introducir en la descripción de los fenómenos cuando exploramos territorios cualitativamente nuevos a partir de mejoras técnicas. Hasta hace muy pocos años, podíamos considerar que el apantallamiento de una carga era instantáneo. El acceso experimental a escalas de tiempo inferiores al femtosegundo requiere incluir en la descripción del proceso efectos dinámicos. La evolución temporal, la dinámica en estos intervalos de tiempo, adquiere protagonismo. Recortando tiempos Cuando contemplamos un objeto, nuestra percepción en realidad se limita a su superficie. Lo que identificamos con la totalidad no es sino una realidad muy parcial. O ni siquiera una realidad, como argüían los filósofos de la Grecia clá- 23 sica, a los que la existencia ontológica o no de superficies resultantes de dividir un cuerpo en dos mitades les provocaba no pocos quebraderos de cabeza. Lo que resulta intrigante es que esta dimensión externa de la materia no es solamente un mero recubrimiento sin relevancia, sino que muchas propiedades físicas y químicas de los objetos dependen o están muy condicionadas por sus propiedades superficiales. Las superficies son sistemas muy complejos, en los que perdemos parte de la simetría que pueda tener el sólido y que están especialmente preparadas para interactuar con el medio externo. Por eso también las superficies pueden ser funcionalizadas, es decir, pueden ser modificadas para cambiar su interacción con el exterior y por tanto su función. No es casual que existan sistemas biológicos, como el cerebro o las hojas de las plantas, cuyo desarrollo evolutivo esté basado en aumentar la proporción entre superficie y volumen. No es sino una forma de aumentar la funcionalidad, la actividad neuronal en el caso del cerebro o la actividad fotosintética en el caso de las hojas. “Sabemos más sobre los acoplamientos entre el movimiento de los núcleos de los adsorbatos y el movimiento de los electrones y somos capaces incluso de conocer cuál es el tiempo que tarda un electrón en ser transferido, en ‘saltar’ desde un átomo adsorbido en la superficie hasta esta última” las técnicas basadas en la fotoemisión o la fotoabsorción, jugó también un papel crucial en este desarrollo, convirtiéndose en el medio principal para obtener información sobre las propiedades electrónicas de las superficies. Cincuenta años más tarde, la ciencia de superficies se enfrenta a nuevas fronteras. Una de las más importantes es la descripción cuantitativa de la dinámica electrónica en superficies. La fotoexcitación de los electrones presentes en la superficie o en átomos y moléculas adsorbidos en superficies es una herramienta valiosísima para controlar, inducir o monitorizar procesos físico-químicos. Es la base de la fotoquímica o fotofísica en superficies. Y, una vez más, una de las claves está en los distintos ritmos o velocidades con los que se producen estos procesos y en la competencia temporal entre ellos, como si de una competición atlética se tratara. Son distintas las técnicas experimentales que se utilizan para medir tiempos mediante luz, pero una de las más sofisticadas en el caso de superficies es la fotoemisión de dos fotones, en la que se envía un primer pulso láser para excitar la muestra, para inducir un cierto proceso electrónico, y poco después un segundo pulso láser, con un retraso temporal perfectamente determinado, para comprobar el estado del sistema excitado. Gracias a estas técnicas o a variaciones sobre ellas y a los avances en paralelo en la descripción teórica de la dinámica electrónica, basados fundamentalmente en cálculos numéricos de primeros principios, conocemos ahora los tiempos de vida de los electrones excitados en superficies, sabemos más sobre los acoplamientos entre el movimiento de los núcleos de los adsorbatos y el movimiento de los electrones y somos capaces incluso de conocer cuál es el tiempo que tarda un electrón en ser transferido, en ‘saltar’ desde un átomo adsorbido en la superficie hasta esta última. Son unos cientos de atosegundos, de nuevo una escala temporal inaccesible hasta hace muy poco tiempo. Estos tiempos son distintos además en función de la relación entre la magnetización de la superficie y el espín del electrón que salta. No menos importantes son los trabajos que se centran en estudiar la diferencia en los tiempos de fotoemisión entre electrones provenientes de estados muy ligados o de valencia en una superficie metálica, es decir, en ‘cronometrar’ en tiempos de atosegundos la carrera entre dos electrones que escapan de una superficie. Diseñando nanoestructuras En los últimos quince años, ha aumentado exponencialmente el interés por los sistemas de tamaño nanométrico. Las nanopartículas, los agregados, los sistemas de baja dimensionalidad en que los electrones están confinados en al menos una de las dimensiones del espacio, todos ellos se han convertido en las estrellas de muchos centros de investigación, además de aparecer de forma recurrente en medios de comunicación especializados y, de vez en cuando, incluso en los generalistas. En el mundo de la física, quizás el grafeno, representante señero de la nanociencia, sea el único nombre que pueda competir con el bosón de Higgs como protagonista mediático. Figura 5. La luz permite emitir electrones desde moléculas diatómicas creando patrones de interferencia que nos proporcionan información muy precisa sobre su estructura electrónica [(D. Akoury et al., Science 318, 949 (2007)]. IIustración de Till Jahnke, Goethe Universität de Frankfurt, Alemania. A finales de la década de 1960, el estudio de la ciencia de superficies se vio fuertemente impulsado por la confluencia de varios factores. El desarrollo de las técnicas de ultra alto vacío y la mayor facilidad a la hora de conseguir muestras de superficies cristalinas permitieron un mayor control sobre las propiedades físico-químicas y las condiciones de conservación de los sistemas estudiados. Por otra parte, desarrollos metodológicos relacionados con la teoría de muchos cuerpos y, en particular, con la difracción de electrones ayudaron al desarrollo e interpretación de los resultados de nuevas técnicas experimentales (Low Energy Electron Diffraction, LEED, por ejemplo), idóneas para este campo. El resultado de todo esto fue una auténtica explosión de actividad y generación de conocimiento en relación con las superficies de los materiales. La luz, o, de otra forma, “Estamos utilizando la luz para analizar el interior de los átomos, para aprender sobre el movimiento de sus electrones con resolución subatómica” Uno de los motivos principales por los que los sistemas de tamaño nanométrico han despertado este merecido interés es porque pueden considerarse como un verdadero cruce de caminos. Las nanoestructuras están a medias entre la física molecular y la física de estado sólido, compartiendo algunos conceptos y metodologías con esta pero otros en cambio con aquella. Los sistemas de tamaño nanométrico son así referencias ideales para estudiar cómo emergen propiedades típicas del estado sólido en función del tamaño del sistema. Las nanopartículas están también a medio camino entre la física y la química e incluso la biología. Este carácter multidisciplinar de la nanociencia es uno de sus mayores atractivos desde el punto de vista de la investigación básica, pero no hay que olvidar que es su inmenso potencial tecnológico el que ha contribuido INVESTIGACIÓN EN VIVO - Mehr Licht! igualmente a su actual desarrollo como disciplina. La variación de las propiedades electrónicas y ópticas de las nanoestructuras con su tamaño permite, en principio, controlar y ajustar estas propiedades externamente. Modificar el tamaño de una nanoestructura es así una manera de diseñar sus propiedades, como si de trajes a medida se trataran. La interacción de luz con nanopartículas es uno de los campos más activos de la nanociencia y ha dado lugar a una actividad brillante, nunca mejor dicho, en los campos de la nanofotónica y la nanoplasmónica. Hay muchos textos, probablemente más amenos que este, incluyendo algunos en esta misma revista, en los que se repasa la espectacular actividad en estos campos, así que me limitaré a señalar aquí que las excitaciones plasmónicas generadas por la luz en las nanopartículas metálicas producen señales tan intensas y dependientes de las propiedades específicas de los sistemas, incluyendo su forma y tamaño, que las convierten en ideales para ser utilizadas como marcadores en técnicas de diagnóstico médico o como sensores en la detección de distintos componentes químicos, entre otras muchas aplicaciones. “Es posible acceder experimentalmente ahora mismo a la escala de tiempo durante la cual se produce una reacción química o se emite un electrón fotoexcitado en una superficie, una nanoestructura o una molécula” Pero además de excitaciones colectivas o plasmones, la incidencia de luz sobre nanopartículas también puede crear excitaciones electrónicas del tipo par electrón-hueco. El estudio del decaimiento o termalización de estas excitaciones en función del tamaño de la nanopartícula es extremadamente útil para entender el papel de efectos como el apantallamiento o la densidad de estados en las colisiones entre electrones, que nos permitan optimizar su uso en el campo de la fotoquímica. Estudios desde primeros principios y medidas de termalización en nanopartículas metálicas muestran que los tiempos de vida de las excitaciones electrónicas son fuertemente dependientes de la localización espacial de las excitaciones y que hay que alcanzar tamaños relativamente grandes para recuperar el comportamiento que se encuentra en el estado sólido. Rompiendo ladrillos En este recorrido hacia sistemas cada vez más pequeños, llegamos por fin a los ladrillos a partir de los cuáles construimos la materia, a los átomos y moléculas. La luz, cómo no, ha jugado un papel crucial en los avances de la física atómica y molecular, particularmente en las dos últimas décadas. El estudio de los procesos de fotoemisión en moléculas en fase gaseosa ha dado un salto cualitativo en los últimos años gracias a la medición de espectros de moléculas orientadas en el espacio y no promediadas sobre ángulos, como era habitual en el pasado. Esto es tanto como pasar de una perspectiva plana, unidimensional, a una perspectiva completa, multidimensional. Y gran parte de este adelanto se debe a una inteligente utilización del proceso de fotofragmentación molecular. Técnicas experimentales basadas en la medida en coincidencia temporal de la energía y dirección de cada uno de los constituyentes de una molécula, después de disociarla mediante una excitación electrónica inducida con luz, nos permiten obtener información precisa y preciosa sobre las especiales relaciones de interdependencia que existían entre estos constituyentes antes de la fragmentación. La utilización de este tipo de técnicas combinada con la modelización teórica de estos procesos ha llevado por ejemplo a estudiar de forma detallada la fragmentación total mediante luz de moléculas de hidrógeno y deuterio en sus elementos constituyentes (dos iones positivos más dos electrones) o los efectos de interferencia en la fotoemisión de dos electrones en moléculas de hidrógeno, en un proceso similar al que se produce en el experimento de las rendijas de Young, uno de los diez experimentos más bellos en la historia de la física según la revista Physics Today. En el caso de la molécula de hidrógeno, son los dos protones de la molécula los que juegan el papel de dos ‘agujeros’ emisores de electrones, solo que separados por una distancia extremadamente pequeña, muy inferior al nanómetro. En su viaje hacia el detector, cada uno de estos dos electrones presenta un patrón de interferencia como si se tratara de una onda y no de una partícula y hubiera sido emitido desde los dos centros al mismo tiempo. Por otra parte y como hemos mencionado anteriormente, el cambio de milenio vino acompañado de la aparición de intensos pulsos de luz ultracortos, de tan solo unos pocos ciclos de duración, y que dieron lugar a la apertura de un campo nuevo, la física del atosegundo. Los primeros blancos a los que se dirigieron estas nuevas armas investigadoras fueron átomos y moléculas y su primer objetivo fue diseccionar la dinámica electrónica en estos sistemas. En ocasiones, los avances de la ciencia no nos permiten un momento de reposo, detenernos y pensar sobre lo conseguido en perspectiva. En casos como este, merece la pena hacerlo: estamos utilizando la luz para analizar el interior de los átomos, para aprender sobre el movimiento de sus electrones con resolución subatómica. Iluminando el futuro Gracias en parte al desarrollo de sofisticadas técnicas experimentales, muchas de ellas basadas en fuentes de luz láser, hemos conseguido avanzar espectacularmente en la comprensión de la dinámica electrónica en regiones de tamaño muy pequeño, de orden inferior a la nanoescala. Hasta hace muy poco, estas técnicas eran incapaces de obtener resoluciones temporales inferiores al femtosegundo, lo que nos impedía por ejemplo observar la dinámica electrónica en el tiempo en que se producen las reacciones químicas. La obtención de pulsos láser ultracortos ha cambiado radicalmente esta situación y ha permitido acceder al estudio de la dinámica electrónica que se produce en escalas de tiempo del femtosegundo o incluso del atosegundo. Por tanto, es posible acceder experimentalmente ahora mismo a la escala de tiempo durante la cual se produce una reacción química o se emite un electrón fotoexcitado en una superficie, una nanoestructura o una molécula. De forma atrevida y provocadora podríamos decir que todo es química, que la química es la base de la vida y de la naturaleza. En última instancia, todas las reacciones químicas están controladas por los electrones. Entender por tanto las reglas que rigen el movimiento de los electrones y los tiempos en que se producen estos movimientos (es decir, la dinámica electrónica), es avanzar un paso más en la comprensión de nuestro mundo. La mejora, gracias a nuevas técnicas basadas en la excitación con fotones, de la resolución temporal en el estudio de la dinámica electrónica está llevando al electrón a transformarse, a pasar de ser una celebridad en el campo de la fotografía a una auténtica estrella cinematográfica. No es de extrañar por ello que el número de grupos, centros de investigación y grandes instalaciones dedicados al estudio de la interacción entre luz y materia sea enorme y siga creciendo. La reciente inauguración del sincrotrón ALBA en Barcelona o la apertura prevista en Europa y Estados Unidos de nuevas instalaciones basadas en los láseres de electrones libres (FEL, por sus siglas en inglés) son buenos ejemplos de ello. En ocasiones se especula con que, así como el siglo XX ha sido el siglo de los electrones, el XXI pueda ser el siglo de los fotones. Independientemente de que esta excesiva simplificación sea cierta o no, lo que sí parece muy probable es que la luz va a estar muy presente en gran parte de los desarrollos científicos tecnológicos de los próximos años. Retomando el simbolismo de la luz como distintivo de conocimiento y belleza, podemos arriesgarnos a predecir que la ciencia del siglo XXI va a ser extremadamente hermosa, entre otras cosas porque estará llena de luz y porque esta ampliará majestuosamente nuestro conocimiento de la materia. La luz, por tanto, sigue y seguirá cumpliendo este objetivo de rescatarnos de las sombras de nuestra ignorancia e iluminar el mundo que nos rodea para su mejor comprensión. Solo tenemos que poner los medios necesarios, como sociedad convencida de que el avance en el conocimiento científico es una de las bases principales del progreso social, económico y ético, para que el futuro nos traiga mehr Licht, mucha, pero que mucha más luz. 25 IVO NV NE IGA CIÓ EST INV Nanoóptica: controlando la luz en la nanoescala Javier Aizpurua, Rubén Esteban, Pablo Alonso-González y Rainer Hillenbrand. La localización de la luz en diversas nanoestructuras ha permitido superar los límites de la óptica convencional, posibilitando un control sin precedentes de diversos procesos optoelectrónicos. La comprensión de la interacción entre la luz y la materia en la nanoescala sienta las bases de la generación, control, y manipulación de haces de luz en espacios ínfimos, abriendo un nuevo abanico de posibilidades tecnológicas. Entre otras, la nanoóptica permite obtener imagenes nanoscópicas de nanopartículas y sustancias biológicas, transmitir señal óptica de alta densidad en dispositivos, realizar termoterapia contra células cancerígenas o mejorar las prestaciones de células solares. La luz ha sido un elemento fundamental en nuestra civilización desde tiempos inmemoriales. Por ello, 2015 ha sido reconocido como “año internacional de la luz” por las Naciones Unidas para poner de relevancia la importancia cultural, social, y tecnológica de la luz en nuestra sociedad actual. Asociada al ámbito de lo místico desde las culturas más antiguas, se la relacionaba con los ciclos de la vida, el bienestar, e incluso con la transcendencia de lo divino. Sin embargo, no es hasta hace unos pocos siglos, que el hombre comienza a comprender la naturaleza de la luz y a utilizarla. La luz tiene multitud de implicaciones en nuestra vida cotidiana, ya que establece una de las pautas más importantes en nuestra Javier Aizpurua, es Profesor de Investigación en el Centro de Física de Materiales (CFM), Centro mixto CSIC-UPV/ EHU, y asociado al Donostia International Physics Center (DIPC), donde es responsable del grupo de Teoría de Nanofotónica. Rubén Esteban, es Fellow Gipuzkoa en el Donostia International Physics Center (DIPC). relación con el mundo exterior, por medio de nuestros sensores biológicos en la retina. Sin embargo, más allá de esta necesidad biológica humana para relacionarse, la luz también aporta una dimensión tecnológica fundamental ya que constituye un medio de propagación de información (paquetes de luz) rápido, limpio, y muy manejable, así como una herramienta muy valiosa para sondear las propiedades de la materia. Diferentes grupos de investigación en el País Vasco contribuyen actualmente al esfuerzo de generar, controlar y manipular la luz en dimensiones extremadamente pequeñas, del orden del nanómetro, en lo que se denomina genéricamente nanoóptica. El campo de la nanoóptica o Pablo Alonso-González, es investigador post-doctoral del grupo de Nanoóptica del CIC nanoGUNE. Rainer Hillenbrand, es Profesor de Investigacion Ikerbasque en nanoGUNE, donde lidera el grupo de Nanoóptica, y Joint Professor en la UPV/EHU. INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala nanofotónica está experimentando un enorme desarrollo debido a los avances tecnológicos que ofrece en ámbitos tan dispares como la microscopía, la bioquímica, las ciencias de materiales, la medicina, la fotovoltaica, o la ingeniería de telecomunicaciones, entre otros. Un avance fundamental para entender los secretos de la naturaleza de la luz ocurre en el año 1865, cuando J. Clerk Maxwell postula las ecuaciones de los campos electromagnéticos que llevan su nombre y ponen de manifiesto la naturaleza ondulatoria de la luz. De acuerdo con estas ecuaciones, la luz está constituida por una evolución espacial y temporal de campos eléctricos y magnéticos que se retroalimentan en su propagación. Como toda onda, la luz puede ser caracterizada por una magnitud característica denominada longitud de onda, λ, que da cuenta de la distancia entre dos crestas sucesivas. La longitud de onda de la luz que perciben los sensores en nuestra retina abarca un rango entre los 400 nanómetros y los 750 nanómetros (1 nanómetro=10-9 metros), y está asociada a los distintos colores que distinguimos: el rojo hacia los 750 nm y el violeta hacia los 400 nm. La luz presenta una longitud de onda mucho más pequeña que otras ondas habituales tales como olas u ondas de presión que dan lugar a los sonidos. Otras ondas electromagnéticas que presentan mayor o menor longitud de onda que la luz visible corresponden a luz infrarroja y ultravioleta respectivamente, y pueden ser detectadas por diversos dispositivos tecnológicos. Otro rasgo notorio de la luz es su velocidad de propagación, que es de unos 300.000 Km/s en el vacío, la velocidad más rápida posible para la transferencia de energía y de información. “La óptica no ha escapado a las grandes oportunidades que le ha brindado la nanotecnología y se ha beneficiado enormemente de ellas” componentes micrométricos de células y estructuras materiales. Sin embargo, a finales del siglo XX, y de manera más intensa durante el comienzo del siglo XXI, la nanotecnología ha conseguido desarrollar métodos de fabricación que permiten obtener estructuras de tamaño nanométrico que abren nuevas posibilidades en multitud de campos de interés tecnológico. La óptica no ha escapado a las grandes oportunidades que le ha brindado la nanotecnología y se ha beneficiado enormemente de ellas. La fabricación de estructuras de unos pocos nanómetros permiten localizar la luz por debajo del límite de difracción. Esta localización especial se consigue gracias al papel que juegan los electrones de las nanoestructuras que intercambian energía con la luz incidente. Los metales como el oro o la plata ofrecen una de las posibilidades más interesantes para obtener una localización de luz por debajo de la longitud de onda, gracias al mecanismo de acoplo de luz con los electrones libres de los metales, que tienen la capacidad de oscilar colectivamente cuando son excitados por luz, creando una excitación denominada plasmón de superficie. Durante un tiempo extremadamente breve, de unos pocos femtosegundos (10-15 segundos), la energía de la luz queda atrapada en la nanoescala, como “contenida” en la nanopartícula en forma de pseudo-luz. Pasados unos pocos ciclos ópticos, ésta se convierte en otra forma de energía (calor) o se reemite de nuevo como luz al vacío, de donde venía. De manera más específica, cuando las excitaciones de los electrones se producen en una nanoestructura metálica, las oscilaciones de la densidad de carga se localizan en la interfase de las nanoestructuras, creando plasmones de superficie. Los plasmones de superficie se pueden entender como una oscilación de una “sopa” de electrones sobre el fondo formado por los núcleos de los átomos, a modo de olas en el agua. En superficies metálicas de gran extensión, los plasmones se propagan a lo largo de éstas, de manera similar a como lo hacen las olas sobre el mar, pero en este caso en la nanoescala. También es posible atrapar la oscilación de los electrones (plasmón) en partículas metálicas, que pueden ser mucho más pequeñas que la longitud de onda de la luz que las ha excitado. El proceso de excitación de un plasmón en una nanopartícula y, por La tecnología asociada al control de la luz ha sufrido un desarrollo paralelo al de la comprensión de su naturaleza. La utilización de lentes para aumentar el tamaño de un objeto ha sido desarrollada desde la edad media. Sin embargo, estas lentes sufren importantes limitaciones para manipular y focalizar la luz que las atraviesa debido a una propiedad fundamental: como cualquier otra onda, la luz sufre un fenómeno físico denominado difracción, que hace que ésta se desvíe al chocar contra un objeto, como por ejemplo una esquina, una apertura, o una guía de ondas. El fenómeno de difracción de una onda puede ser visualizado fácilmente en la propagación de una ola al incidir sobre una esquina o contra un objeto, los cuales producen nuevos frentes de olas y desviaciones de la dirección de propagación de la ola original, en forma de nuevas olas que se propagan en múltiples direcciones. De la misma manera, la difracción también impide utilizar lentes para localizar la luz a distancias mucho más pequeñas que la mitad de la separación entre dos crestas de la onda (la mitad de la longitud de onda; ≈λ/2), imponiendo el denominado límite de difracción, tal y como se aprecia en la Figura 1(a). En otras palabras, la luz no se deja “atrapar” fácilmente, sino que escapa y rebota cuando se la intenta “cazar”. Este comportamiento supone un obstáculo para poder acceder con luz a objetos menores que la longitud de onda utilizada, y por tanto, impone un límite a la resolución óptica. En 1873, Ernst Abbe desarrolló su teoría de los límites de la resolución de los microscopios y estableció que el tamaño que podían resolver los mismos, D, venía dado por la fórmula D=λ/(2nsinα), donde λ es la longitud de onda de la luz, n el índice de refracción del medio, y α es el ángulo de semi-apertura del objetivo del microscopio. En la práctica, el límite de difracción hace que no se puedan diferenciar los detalles de objetos menores que aproximadamente la mitad de la longitud de onda mediante óptica convencional. En el caso de la luz, la resolución se limita, por tanto, a unos pocos cientos de nanómetros, es decir, algo menos de un micrómetro. Durante más de un siglo, las limitaciones impuestas por la difracción han supuesto una barrera para el desarrollo de diferentes tecnologías ópticas. Por ejemplo, la señal óptica ha sido transportada en guías de fibra de dimensiones de micrómetros, y los microscopios ópticos sólo conseguían acceder a los Figura 1. (a) Localización de la luz mediante óptica convencional: una lente focaliza un haz de luz en dimensiones (D) de la mitad de la longitud de onda λ. (b) Localización de la luz por debajo del límite de difracción en nanoóptica gracias a la acción de una nanopartícula metálica de tamaño mucho menor que la longitud de onda (D<<λ/2). 27 Figura 2. Nanoantenas ópticas comunes utilizadas en nanoóptica, normalmente fabricadas con oro: (a) nanodímero que produce localización y aumento de la señal óptica en el hueco entre las dos partículas, (b) nanobarra que permite una sintonización de la resonancia de antena en función de la longitud de la nanobarra con una dependencia lineal, y (c) nanopunta que localiza la luz en el vértice para su utilización en el barrido nanoscópico. tanto, el “atrapamiento” de la luz en la misma puede observarse esquemáticamente en la Fig. 1(b). La localización de la luz por medio de nanoestructuras abre la óptica por primera vez al mundo de la nanoescala. La nanoóptica de plasmones consigue no sólo batir el límite de difracción y localizar la luz en dimensiones minúsculas, que pueden ser incluso del tamaño de unos pocos átomos, sino también aumentar de manera espectacular la intensidad de la misma en los alrededores de la nanopartícula. La localización es un fenómeno resonante, es decir, ocurre únicamente para una determinada longitud de onda que depende de multitud de factores: el material metálico específico, el tamaño, la forma de las nanopartículas, el entorno en que se sitúan, así como la interacción con otras nanopartículas cercanas. Por este motivo, a estas partículas metálicas se les conocen con el nombre de nanoantenas ópticas ya que actúan como dispositivos resonantes muy eficientes para recibir la luz incidente de un color específico, así como también para emitir eficazmente, y en forma de luz, la energía asociada a los plasmones hacia un detector. La comunidad de la nanoóptica junto a la de química sintética y la ingeniería de nanofabricación han diseñado, creado y caracterizado multitud de nanoantenas ópticas entre las que caben destacar las nanobarras, las nanocáscaras, los nanoanillos, las nanoestrellas, los nanodímeros, o las nanopuntas, entre otras. En la Figura 2, se muestran varios ejemplos de nanoantenas típicamente estudiadas y empleadas en nanoóptica. De izquierda a derecha, se muestran (a) un dímero de nanopartículas que localiza el campo entre las dos nanopartículas para producir un aumento de la luz más eficaz, (b) una antena lineal tipo λ/2 formada por una nanobarra que puede sintonizar la resonancia de la luz desde el visible hasta el infrarrojo, y (c) una estructura de nanopunta que localiza la luz en su vértice y es comúnmente utilizada en microscopías y espectroscopias ópticas a modo de nanolinterna que barre distintas muestras. se han convertido en posibles alternativas para mejorar un amplio abanico de tecnologías. A continuación describimos con cierto detalle algunas de estas posibilidades, haciendo énfasis en la investigación realizada en nuestros grupos en Donostia. Nuestro trabajo combina esfuerzos tanto teóricos como experimentales. El grupo de Teoría de Nanofotónica del Centro de Física de Materiales (CFM) y la fundación Donostia International Physics Center (DIPC), en San Sebastián, ha desarrollado durante los últimos años una línea de investigación sobre teoría y simulación de las propiedades ópticas de nanoantenas similares a las descritas en la Figura 2, así como sobre su aplicación tecnológica. Este “La fusión de modelos clásicos y cuánticos permite estudiar conceptos punteros en nanoóptica en la frontera de la optoelectrónica” Estas nanoestructuras pueden servir para localizar la luz de un cierto color, en una región específica, o para emitir la energía de manera determinada [1]. La libertad para “sintonizar” las propiedades ópticas a la carta suponen una de las grandes ventajas de la nanoóptica basada en plasmones, al permitir diseñar las estructuras adecuadas para cada objetivo concreto. De hecho, los plasmones Figura 3. Imágenes ópticas del campo eléctrico local de partículas de Níquel de 90 nm de diámetro, en las que se muestran los dos lóbulos típicos de los dipolos de cada partícula [3]. Estas imágenes son obtenidas con un microscopio s-SNOM que supera el límite de difracción gracias a la localización de la luz en la punta del microscopio. INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala desarrollo se ha realizado mediante una descripción clásica de los plasmones a partir de las ecuaciones de Maxwell, a las que se han añadido las complejas interacciones de los electrones debidas a la Mecánica Cuántica, (la teoría física desarrollada a comienzos del siglo XX que describe la dinámica de los objetos microscópicos a través de sus funciones probabilísticas). La fusión de modelos clásicos y cuánticos permite estudiar conceptos punteros en nanoóptica en la frontera de la optoelectrónica. Entre otros, propiedades como el perfil de la densidad electrónica cerca de las superficies de las nanoestructuras, la posibilidad de transferencia de cargas entre partículas separadas por pequeñas distancias (tuneleo cuántico), o la descripción atomística de las estructuras metálicas abren nuevos campos para explorar los límites de la localización de la luz en nanoantenas ópticas [2]. “Gracias a la nanoscopía óptica se obtienen e interpretan imágenes de nanomateriales y nanoestructuras con resolución por debajo de la longitud de onda, nunca logradas anteriormente” Como primer ejemplo de aplicación de la nanoóptica, destacaremos la utilización de las nanoantenas como sondas para mejorar la resolución en microscopía óptica: tal y como se ha mostrado esquemáticamente en la Figura 2(c), al iluminar una nanoestructura metálica puntiaguda con una determinada longitud de onda, la luz puede quedar “atrapada” en la punta que actúa como una sonda nanoscópica a modo de nanolinterna con capacidad para iluminar un espacio muy reducido. Estas sondas también pueden servir para detectar la luz ya presente en la proximidad de una estructura nanométrica. De esta manera, es posible obtener información óptica local de estructuras de tamaño mucho menor que las obtenidas con métodos de microscopía óptica convencionales. El grupo de Nanoóptica del CIC nanoGUNE de San Sebastián ha desarrollado al límite esta técnica, denominada microscopía óptica de barrido de campo cercano basada en la difusión de la punta (s-SNOM por su acrónimo en inglés). Gracias a la técnica de s-SNOM, el grupo de nanoGUNE ha obtenido e interpretado imágenes de nanomateriales y nanoestructuras con resolución por debajo de la longitud de onda, nunca logradas anteriormente. Como ejemplo, la Figura 3 muestra la imagen de unas partículas de níquel cuya respuesta local (luz del campo cercano) es medida por la punta nanométrica del microscopio s-SNOM. La localización de la luz en zonas de unos pocos nanómetros puede observarse en estas partículas de níquel de 90 nm de diámetro que son iluminadas con luz de 633 nm. Si se utilizara un microscopio óptico convencional, la imagen de cada nanopartícula sería una mancha difusa y homogénea en la que no se distinguiría estructura alguna. Mediante el barrido óptico del microscopio s-SNOM, la estructura de campo local en cada nanopartícula de níquel, compuesta por dos lóbulos en los que se localiza la luz, es claramente discernible, con una resolución que ronda los 20-30 nm, es decir, veinte veces más pequeña que la longitud de onda utilizada para la iluminación. La nanoóptica, por tanto, nos “abre los ojos” al mundo nanométrico, permitiendo acceder a una nueva frontera de la información óptica que estaba vetada anteriormente. “Gracias al advenimiento de la nanoóptica de plasmones, la señal óptica puede ser “contenida”, manipulada y transportada en soportes materiales de tamaño mínimo.” Para obtener aún más información de una muestra por medios ópticos, una opción ampliamente utilizada es la espectroscopia. Esta técnica consiste en medir la respuesta óptica de una muestra (por ejemplo una proteína, un virus, la región de un material, etc.) en función de la longitud de onda de un haz de luz incidente, obteniendo de esta manera una “firma” única de los diferentes com- Figura 4. Imagen infrarroja de complejos proteínicos aislados con una resolución mejorada entre 100 y 1000 veces comparada con la microscopía infrarroja convencional . (a) Ilus- [4] tración de la luz infrarroja iluminando la punta del microscopio de campo cercano sobre el complejo proteínico, que muestra el funcionamiento de la espectroscopia infrarroja por transformada de Fourier en la escala nano (nano-FTIR). Esta técnica permite visualizar e identificar nanomuestras, tales como los complejos proteínicos de la imagen. (b) Imagen de la topografía (mapa de altura) de tres nanopartículas. (c) Imagen de absorción infrarroja de las tres partículas que revela que sólo dos de ellas son complejos proteínicos. puestos químicos de la muestra, que consiste en una serie de picos de dicha respuesta, y que sirve para identificarla. Pese a sus muchas ventajas, la espectroscopia encuentra a menudo dificultades para detectar cantidades muy pequeñas de un producto o para obtener información individual sobre moléculas separadas por distancias nanométricas. Al localizar y aumentar la luz en la nanoescala, la nanoóptica permite superar los límites convencionales, ofreciendo nuevas posibilidades para diferenciar moléculas muy próximas, así como para aumentar la intensidad de la señal proveniente de la muestra. El grupo de Teoría de Nanofotónica del CFM y DIPC se ha dedicado desde hace años al estudio y aplicación de técnicas de espectroscopia que utilizan resonancias plasmónicas. Entre estas técnicas podemos destacar la “Espectroscopia Raman Aumentada por Superficie” y la “Espectroscopia de Absorción Infrarroja Aumentada por Superficie“ (conocidas por sus acrónimos en inglés como SERS y SEIRA respectivamente). Estas técnicas no sólo son útiles para detectar pequeñas cantidades de moléculas, sino que pueden llegar a servir para estudiar el desarrollo temporal 29 riales de tamaño mínimo, lo cual permite obtener una densidad de dispositivos muy elevada. Sin embargo, los metales típicamente utilizados en plasmónica, tales como oro o plata, presentan pérdidas de energía considerables que conllevan una rápida pérdida de la información sin permitir una propagación de largo alcance de la señal óptica. Por este motivo, existe un gran interés en encontrar nuevos materiales que aúnen las propiedades de nanolocalización y aumento de la densidad de energía provista por los metales, junto a una mayor distancia de propagación. Recientemente, se ha observado que capas de carbono de un átomo de grosor, comúnmente denominadas grafeno, permiten la excitación de electrones libres que generan plasmones de superficie con pocas pérdidas, los cuales ofrecen la posibilidad de atrapar y manipular luz en la nanoescala. Esta capacidad de confinamiento podría ser utilizada en el futuro para el desarrollo de nuevos sensores biológicos ultrasensitivos o dispositivos de tratamiento de la información ópticos. La estructura de este tipo de materiales se representa en la Figura 5, donde se muestra una representación gráfica de una lámina de grafeno sobre la que se propaga un haz de plasmones (en rojo) que ha sido estimulado por una antena de oro (en amarillo) dispuesta sobre el grafeno. Al pasar por una doble lámina de grafeno que forma un prisma de escala atómica (átomos coloreados en azul claro), el haz de plasmones es refractado de la misma manera que lo hace la luz convencional cuando ésta pasa a través de un prisma. Este esquema da una idea de lo robusta que resulta la plataforma material de grafeno para la manipulación de señal óptica en la nanoescala. “La capacidad de los plasmones de grafeno para confinar la luz podría ser utilizada en el futuro para el desarrollo de nuevos sensores biológicos ultrasensitivos o dispositivos de tratamiento de la información ópticos” Figura 5. Representación gráfica de la refracción de plasmones en grafeno (en rojo), excitados por una antena de oro diminuta (en amarillo), cuando éstos pasan a través de un prisma de átomos de carbono (en azul claro) de un átomo de grosor. Las medias experimentales de este fenómeno fueron obtenidas en el CIC nanoGUNE [5]. o espacial de reacciones químicas a partir de la evolución de uno o varios de los productos involucrados. Así mismo, el grupo de Nanoóptica de nanoGUNE ha desarrollado de manera pionera una técnica de imagen basada en nanoespectroscopia infrarroja (nano-FTIR) que permite el estudio de la composición química, estructura y propiedades electrónicas de nanomateriales y nanopartículas. Como ejemplo, en la Figura 4 se muestra la identificación unívoca de complejos proteínicos aislados mediante la obtención de su firma vibracional infrarroja. Además de su utilización como sonda para obtener imágenes de objetos pequeños, la luz tiene un valor intrínseco por la información que contiene. La energía y la polarización de los campos electromagnéticos, así como la forma espaciotemporal de un pulso de luz contiene información que puede ser transportada, e incluso manipulada, a velocidades mucho más rápidas que las típicamente alcanzables mediante cables de cobre o en el microprocesador de un ordenador, los cuales se basan en el control de los electrones. Como ejemplo de tecnología óptica que ha revolucionado las comunicaciones modernas, las fibras ópticas transportan enormes cantidades de información en forma de luz mediante estructuras dieléctricas cilíndricas de un grosor similar al de la longitud de onda (micrométrico). Gracias al advenimiento de la nanoóptica de plasmones, la señal óptica puede ser “contenida”, manipulada y transportada en soportes mate- Otros materiales de capas monoatómicas y con estructura química similar, tales como el nitruro de boro, también presentan este tipo de propiedades, y por tanto, abren nuevas opciones en el menú de materiales disponibles para la nanoóptica. Las resonancias plasmónicas en este tipo de materiales suelen darse en longitudes de onda del infrarrojo lejano o incluso en frecuencias de terahercios, es decir, en longitudes de onda mayores que la de la luz visible. Sin embargo, se atisba una convergencia hacia la obtención de resonancias en longitudes de onda ópticas gracias a una optimización de los materiales y de las estructuras geométricas de los mismos. Los plasmones pueden resultar también de utilidad en muchos otros campos. En medicina, por ejemplo, se pueden diseñar partículas metálicas funcionalizadas con un fármaco determinado que es inoculado en el paciente hasta llegar a una zona de interés (zona tumoral, por ejemplo). Al ser iluminadas con la luz inocua de un láser, las nanopartículas entran en excitación resonante, liberando el fármaco, y aumentando así su efectividad, al tiempo que disminuyen los efectos secundarios del tratamiento. Otra posibilidad consiste en aprovechar el aumento de temperatura asociado a la excitación de plasmones para acabar con las células tumorales presentes en la proximidad de las nanopartículas por calentamiento, en lo que se denomina termoterapia asistida por plasmones. “La nanoóptica abre un nuevo abanico de posibilidades tecnológicas sin precedentes” La nanofotónica también ofrece aplicaciones novedosas e innovadoras en el campo de las energías renovables basadas en células solares. La capacidad de las nanopartículas plasmónicas para absorber la luz de manera más eficiente permite utilizarlas junto a materiales que presentan actividad fotovoltaica, de manera que éstos recojan la luz y la transformen en energía eléctrica de manera más eficiente. Otras aplicaciones en esta línea persiguen la conversión de la luz INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala Interacción entre la luz y materia nanoestructurada Análisis bioquímicos Mejora de células solares Sensórica Espectroscopias aumentadas por el campo eléctrico Nanoscopía de campo cercano Información cuántica NANOÓPTICA Fotoquímica Transmisión de señal óptica Optoelectrónica en la nanoescala Termoterapia de células cancerígenas Metamateriales Figura 6. Áreas de aplicación de la nanoóptica. del sol en otras formas de energía, diferentes a la energía eléctrica. Por ejemplo, de manera similar a la fotosíntesis en las plantas, el sol puede proporcionar la energía necesaria para inducir una reacción química que produzca algún tipo de combustible, como por ejemplo hidrógeno y oxígeno a partir del agua. El potencial de los plasmones para optimizar estas reacciones, y los procesos físicos asociados a las mismas son objeto de intensa investigación en todo el mundo. La nanoóptica también muestra un gran potencial en el campo de la información cuántica. Este campo supone un nuevo paradigma en la generación, transmisión, y manipulación de la información. Al contrario que la información clásica basada en bits, es decir, en códigos binarios en los que tenemos dos estados bien definidos (0 o 1), la información cuántica tiene como unidad de información el qubit, es decir, un estado cuántico que presenta una probabilidad de estar entre los estados 0 y 1, y que abre nuevas posibilidades para desarrollar computación más rápida, y más segura, en las que la manipulación de información consiste en el entrelazado de varios de estos qubits. Los plasmones pueden actuar como intermediario de estos estados cuánticos en la nanoescala, y actualmente se está estudiando intensamente si esta intermediación permite el transporte de la información sin deterioro de las propiedades de la misma. La nanoóptica, por tanto, podría servir como catalizador de nuevas posibilidades en información cuántica. Todas las aplicaciones reseñadas aquí requieren un trabajo profundo de diseño y comprensión de los procesos físicos involucrados, así como su explotación y desarrollo en aplicaciones prácticas que mejoren la competitividad mediante la generación de un conocimiento de vanguardia. El control de la luz en la nanoes- cala, sin precedentes hasta hace unos pocos años, permite augurar un futuro muy prometedor para la nanoóptica, y en esa tarea trabajan sin descanso el grupo de Nanoóptica de nanoGUNE y el grupo de Teoría de Nanofotónica del CFM-DIPC. Referencias [1] “Metal-nanoparticle plasmonics”, M. Pelton, J. Aizpurua and G. W. Bryant. Laser Photon. Rev. 2, 136-159 (2008). [2] “Revealing the quantum regime in tunnelling plasmonics”, Kevin J. Savage, Matthew M. Hawkeye, Ruben Esteban, Andrei G. Borisov,, Javier Aizpurua, and Jeremy J. Baumberg. Nature 491, 574 (2012). [3] “Plasmonic nickel nanoantennas”, J. Chen, P. Albella, Z. Pirzadeh, P. Alonso-Gonzalez, F. Huth, S. Bonetti, V. Bonanni, J. Akerman, J. Nogues, P. Vavassori, A. Dmitriev, J. Aizpurua, and R. Hillenbrand. Small 7, 2341-2347 (2011). [4] “Structural analysis and mapping of individual protein complexes by infrared nanospectroscopy”, I. Amenabar, S. Poly, W. Nuansing, E. H. Hubrich, A. A. Govyadinov, F. Huth, R. Krutokhvostov, L. Zhang, M. Knez, J. Heberle, A. M. Bittner and R. Hillenbrand. Nature Commun. 4, 2890 (2013). [5] “Controlling graphene plasmons with resonant metal antennas and spatial conductivity patterns”, P. Alonso-González, A. Y. Nikitin, F. Golmar, A. Centeno, A. Pesquera, S. Vélez, J. Chen, G. Navickaite, F. Koppens, A. Zurutuza, F. Casanova, L. E. Hueso, and R. Hillenbrand. Science 344, 1369-1373 (2014). 31 Entorno CIC Mesa de ideas 34 Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania con Igor Campillo, Helene Jacquet, Jacques Tortos, Fernando Plazaola, Eric Papon y Antonio Porro. Modera: Joseba Jauregizar Proyectos de Investigación 40 Nuevos materiales de conversión ascendente. Silvia Alonso-de Castro, Emmanuel Ruggiero y Luca Salassa Microsensores basados en redes de nanoagujeros. Josu Martínez-Perdiguero, Deitze Otaduy, Aritz Retolaza y Santos Merino Máquinas portables. Modelo de definición de sus límites funcionales. Josu Eguia, L. Uriarte y A. Lamikiz Euskadi en breve 54 AS IDE DE SA ME Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania Mesa de ideas con Igor Campillo, Helene Jacquet, Jacques Tortos, Fernando Plazaola, Eric Papon, Antonio Porro. Modera: Joseba Jauregizar. La celebración en Burdeos del I Symposium Bordeaux-Euskampus fue el marco perfecto para la celebración de la Mesa de Ideas de este número de CICNetwork. Seis expertos de ambos lados de la frontera moderados por el Director General de Tecnalia, Joseba Jauregizar, reflexionaron sobre el pasado, el presente y, sobre todo, el futuro de la investigación en Euskadi y en Aquitania. Un futuro que parece que pasa por incrementar la cooperación entre los agentes de los dos territorios. Desde que hace ya más de 20 años se creara el “Fondo Común para la Cooperación Aquitania-Euskadi”,la cooperación ha sido una realidad en la que han participado actores y entidades socioeconómicas de ambas regiones. Sin embargo, hasta ahora esta cooperación no se ha revelado como una prioridad compartida, con escasa presencia de proyectos de carácter estratégico para la Euro-región, predominando las pequeñas iniciativas sin continuidad. El pasado mes de noviembre se abrió una nueva etapa en esta relación con la firma del acuerdo para la creación de un Campus Euro-regional de Excelencia Aquitania-Euskadi entre las Universidades del País Vasco y Burdeos. CicNetwork quiso aprovechar esta cita, con la celebración en Burdeos del primer simposio Bordeaux-Euskampus, para conocer de primera mano la opinión de académicos e investigadores de ambos lados de la frontera sobre el pasado, el presente y, sobre todo, el futuro de la investigación en los dos territorios. La mesa, celebrada en el Anfiteatro de la Universidad de Burdeos, fue moderada por el Director General de Tecnalia, Joseba Jauregizar, y contó con la participación de: Eric Papon, Vicerrector de Innovación de la Universidad de Burdeos, Jaques Tortos, Director de Nobatek, Helene Jacquet, Directora de Investigación, Partenariados e Innovación de la Universidad de Burdeos, Fernando Plazaola, Vicerrector de Investigación de la Universidad del País Vasco, Antonio Porro, Director de Desarrollo de Negocio División de Construcción Sostenible y creador de la unidad Tecnalia-CSIC de Tecnalia e Igor Campillo, Director de Euskampus Fundazioa. Joseba Jauregizar: En la actualidad hay en marcha un Plan Estratégico Aquitania-Euskadi 2014-2020 que define la Euro-región como un espacio de cooperación con una ciudadanía conectada e interrelacionada, con empresas competitivas que trabajan y desarrollan iniciativas conjuntamente, y acceden cooperando a nuevos mercados, en un territorio sostenible, atractivo y bien posicionado en los ejes de desarrollo europeos, donde se despliega una red integrada de actores e infraestructuras que mejoran su capital social. Todo ello, a través de una gobernanza abierta de la cooperación orientada a la facilitación de proyectos concretos impulsados por los actores de los respectivos niveles de actuación. En este plan se formulan cuatro grandes retos: Ciudadanía euro-regional, economía del conocimiento, innovación y competitividad empresarial, territorio sostenible y gobernanza abierta. Con todo este escenario actual, la primera de las MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania La mesa, celebrada en el Anfiteatro de la Universidad de Burdeos, fue moderada por el Director General de Tecnalia, Joseba Jauregizar, y contó con la participación de: Eric Papon, Vicerrector de Innovación de la Universidad de Burdeos, Jaques Tortos, Director de Nobatek, Helene Jacquet, Directora de Investigación, Partenariados e Innovación de la Universidad de Burdeos, Fernando Plazaola, Vicerrector de Investigación de la Universidad del País Vasco, Antonio Porro, Director de Desarrollo de Negocio División de Construcción Sostenible y creador de la unidad Tecnalia-CSIC de Tecnalia e Igor Campillo, Director de Euskampus Fundazioa. preguntas es doble y está relacionada con el ámbito docente, ¿Qué actuaciones de docencia compartida se han desarrollado entre Aquitania y Euskadi? ¿Qué posibilidades se abren tras el acuerdo firmado entre las dos universidades? Igor Campillo: Entre la UPV-EHU y la Universidad de Burdeos tenemos en este momento registrados ya 6 programas conjuntos de postgrado, algunos con más universidades involucradas: Máster en Recursos Marinos, Máster Europeo en Química Teórica, Máster en Análisis Forense, un doctorado compartido en dirección empresarial desde la innovación, Máster de Filología Vasca y el Máster de Ingeniería Mecánica y Fabricación. De cara al futuro, queremos incidir en ampliar la oferta compartida en programas de postgrado entre las dos universidades, tanto en el número de masters como en la variedad temática. Sin duda alguna, el convenio que acaba de firmarse entre las dos universidades abre las puertas a esta posibilidad. Helene Jacquet: El acuerdo entre las dos universidades es una fórmula perfecta para crear un campus transfronterizo más fuerte, que otorgue más valor añadido en aspectos como la industria, ya que tenemos una tradición de investigación totalmente complementaria. Hay que crear una cultura de postgrado nueva para crear una nueva cultura de investigadores a ambos lados de la frontera. El postgrado prepara carreras internacionales que posibilitan el desarrollo de la economía. Primero, hay que cooperar en los polos de excelencia como los de neurociencias, salud, medio ambiente o tecnología numérica, entre otros. De hecho, hemos priorizado hasta 11 polos de conocimiento y hemos dedicado medios para propiciar espacios de encuentro entre científicos, para fomentar la cooperación científico-tecnológica. Esperamos que este Simposio celebrado en Burdeos ayude a concretar y definir proyectos de investigación venideros. Joseba Jauregizar: Hablando de ese ámbito de colaboración científico-tecnología, me gustaría conocer qué actuaciones de cooperación se han llevado a cabo y cuál ha sido la experiencia, además de desvelar los retos de futuro. Quizás podemos empezar por Jacques Tortos que lleva más de 30 años desarrollando una colaboración a ambos lados de la frontera. ¿Cómo ha sido esa colaboración transfronteriza? Jacques Tortos: Hace ya 10 años que nos juntamos profesionales de Aquitania y Euskadi para imaginar un nuevo proyecto, un centro tecnológico transfronterizo que sirviera de encuentro a profesionales que tenían ganas de avanzar en la cooperación a ambos lados de los Pirineos. Se tomó entonces toda la experiencia de Tecnalia para aprovechar su desarrollo y evolución en el mercado francés, de esta manera nació Nobatek, en un territorio favorable para este tipo de iniciativas con gente que tenía ganas de avanzar y generar valor. Desde entonces, en Nobatek hemos aprendido mucho y hemos desarrollado varias colaboraciones con las dos universidades. Contamos en la actualidad con más de 60 investigadores, con una relevancia alta de doctores, desarrollando 150 proyectos anualmente que demuestran el trabajo de esta última década. Sin embargo, juntos podemos ir mucho más allá. El reto que se nos abre ahora para las dos regiones es muy importante. Se pueden potenciar grandes proyectos conjuntamente sobre todo, proyectos que ayuden a resolver los grandes desafíos europeos reflejados en el H2020. Juntos somos más fuertes, tenemos más potencial, y el acuerdo entre las dos universidades nos ayuda en este camino. De cara al futuro habría que potenciar nuevas formas de viveros para nuevas empresas tecnológicas, de hecho ya estamos trabajando en esto. Esperamos que estas iniciativas puedan aprovechar lo mejor de las universidades y de las empresas para que, desde el inicio, estas start-ups tengan un mercado potencial interesante en todos los países de la Euro-región. 35 Antonio Porro: Antes de nada sí que me gustaría recordar la posición de centros como Tecnalia, que es la de generar conocimiento y, al mismo tiempo, ser enlace entre las instituciones docentes y la industria. Esto nos obliga a generar unas capacidades de intermediación hacia ambos lados, de forma que entendiendo las necesidades de la industria y las de sus clientes o usuarios, podamos buscar respuestas en el conocimiento, transformándolo en aplicaciones concretas. Así por ejemplo, tenemos los alumnos del Máster de Recursos Marinos que desarrollan sus tesis en Azti-Tecnalia y otras estaciones marinas, lo que les permite estar en contacto con la realidad del mercado y se traduce en mejoras en la competitividad. Esto también favorece los doctorados compartidos, mejorar el encaje de los nuevos profesionales en las empresas y también a la vez que las empresas mejoran sus conocimientos. Por lo que respecta a la utilización del conocimiento, ya se han desarrollado más de 40 proyectos conjuntos entre Euskadi y Aquitania en el seno de la corporación Tecnalia y en el H2020, que acaba de comenzar, ya tenemos otros dos. El hecho de trabajar con dos campus de origen muy diverso nos obliga a tener en cuenta diferentes sensibilidades y también nos permite ser más competitivos en el mercado europeo. ““Hay que crear una cultura de postgrado nueva para crear una nueva cultura de investigadores a ambos lados de la frontera” Helene Jacquet Fernando Plazaola: Desde la EHU-UPV venimos trabajando con la Universidad de Burdeos pero quizás hasta ahora de una forma más individual. Las colaboraciones más oficiales comenzaron con las co-tutelas entre ambas universidades, más de 20 en los últimos 4 años. Hemos tenido también algunos proyectos europeos y en esta convocatoria del H2020 nuestra participación activa ha aumentado hasta presentar 10 proyectos en las diferentes convocatorias. Ahora, el hecho de formalizar un contrato bilateral nos permite poner a trabajar conjuntamente investigadores de ambos lados de la frontera, les damos la oportunidad de conocerse, de crear espacios de reflexión como este simposio que ha reunido a más de 300 investigadores. Una de las cosas importantes es que nos demos a conocer, que conozcamos las potencialidades de cada territorio para así aumentar la posibilidad de desarrollar trabajos conjuntos. Eric Papon: Como ya se ha comentado antes, creo que este acuerdo entre las dos universidades es muy importante, un acuerdo como el firmado ahora debe favorecer el intercambio de investigadores, las dobles titulaciones, las formaciones y los proyectos conjuntos y evitar, en la medida de lo posible, los bloqueos administrativos. Hay que favorecer los intercambios en los diferentes niveles de docencia: investigación, masters, etc., así como seguir favoreciendo la movilidad de los estudiantes de ambas universidades. Es muy importante, como también se ha comentado antes, continuar con las co-tutelas. Por otra parte, es necesario hacer coincidir nuestras ofertas formativas con nuestras áreas de excelencia y garantizar la formación en estos campos. Otro gran reto es la colaboración empresarial para acercar la formación de nuestros estudiantes a las necesidades de la industria. En definitiva, se trata de generar valor en nuestra Euro región). Joseba Jauregizar: Desde Tecnalia, Antonio Porro ha sido testigo de varios proyectos de colaboración entre las dos regiones y me gustaría preguntarle también cómo los ha visto “En el futuro habría que potenciar nuevas formas de vivero para nuevas empresas tecnológicas” Jacque Tortos Joseba Jauregizar: De vuestras intervenciones se deduce que ha habido una cooperación importante entre Euskadi y Aquitania, con numerosos proyectos en marcha, pero también da la sensación de que no se han aprovechado todas las potencialidades. ¿Cuáles han sido las barreras que no han posibilitado hasta ahora una colaboración más estrecha? ¿Creéis que este acuerdo que se ha firmado entre Euskadi y Aquitania va a eliminar esas barreras? Helene Jacquet: Quizás la primera barrera que nos encontramos es que hablamos del concepto de acuerdo o colaboración transfronteriza cuando en realidad, sería más acertado hablar de Euro-región. Entre Bilbao y Burdeos hay 3.30 horas en coche, una MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania distancia considerable y con no muy buenas conexiones. Por supuesto que compartimos cultura y continuidad del territorio, pero no hay que olvidar la distancia y hay que hacer esfuerzos para minimizar este hándicap. Hay herramientas nuevas que desarrollar, la socialización es muy importante y tenemos experiencia más que de sobra para trabajar conjuntamente, a través de las nuevas tecnologías de la información, y minimizar el impacto de la distancia. Fernando Plazaola: Efectivamente, la movilidad es una de las principales barreras pero creo que también existía un desconocimiento mutuo y una falta de reconocimiento de sinergias posibles en toda la cadena de valor. Tampoco podemos olvidar algunas barreras burocráticas y las propias dificultades de la movilidad del personal. Por este motivo, este acuerdo y el simposio son muy importantes. Acercamos el conocimiento de cada universidad, conocernos más para abrir y fortalecer más posibilidades de colaboración. son esas sinergias, cómo confluyen y en qué momento nos encontramos ahora? Igor Campillo: Estamos ahora en un momento que yo calificaría de apasionante. Ambas regiones han definido sus estrategias de especialización inteligente y es la hora de ver cómo podemos sincronizarlas y comprobar también las oportunidades que nos brinda el Horizon 2020 para crear nuevas colaboraciones pero también sin olvidar otras iniciativas como el Erasmus Plus o el hecho de que en Euskadi se está planteando un nuevo plan de ciencia, tecnología e innovación 2020. En el pasado las colaboraciones existían pero eran mucho más dispersas. Con el campus euro-regional, el trabajo que ya hemos hecho y, sobre todo, con el convenio firmado hoy se dota a esta relación de un marco del que carecía antes. Esto es muy importante porque los propios investigadores se sienten ahora parte de un proyecto más grande. Este marco nos permite estructurar las relaciones para ser más competitivos y lanzar iniciativas propias que nos permitan dar respuesta a las llamadas de Europa. Nos queda mucho por mejorar teniendo en cuenta de dónde venimos: hasta ahora en Europa, en el período 2007-2014, en el FP VII, las universidades hemos participado conjuntamente en no más de 10 proyectos de escasa entidad. Sin embargo, estamos avanzando y, sólo en los primeros meses de este año, ya hemos presentado 11 propuestas conjuntas al Horizon 2020 y Erasmus+, en temas tan variados como materiales, manufacturing, salud o cooperación entre universidades y tejido productivo. En estas propuestas participan también las empresas y los centros tecnológicos. Es de destacar también que la forma en la que estamos yendo conjuntamente a Europa está muy diversificada, respondiendo a las convocatorias de cambios retos sociales, liderazgo industrial y con un buen número importante de proyec- “Los tres pilares fundamentales para responder al futuro en Europa son el académico, el tecnológico y el industrial y en este sentido, tenemos que avanzar en nuestra colaboración para dar nuevas respuestas” Eric Papon Joseba Jauregizar: Vamos a dar un paso más y tratar de ver el futuro. Hoy en Europa y en cada uno de sus territorios se están desarrollando las estrategias regionales de especialización inteligente RIS3 que tratan de potenciar las propias capacidades de cada región para desarrollar sus ventajas competitivas en el ámbito científico, tecnológico y económico. Por otra parte, también se han desarrollado convocatorias en el ámbito de las comunidades de conocimiento, los KICS (Knowledge and Innovation Communities) europeos, desde salud o materiales hasta manufacturing. En este escenario habría que ver esas sinergias entre ambos territorios, cuales son las estrategias de cada uno y los focos principales y analizar cómo podemos sumar capacidades para desarrollar nuevos proyectos. También las propias universidades, como ya nos comentaban antes, tienen identificados sus polos de conocimiento y, sin duda, puede haber sinergias. ¿Cuáles creéis que “Estamos creando ahora las condiciones para que haya una autoorganización ordenada que nos permita ser mucho más competitivos, tanto para responder a las llamadas de Europa como para lanzar iniciativas propias” Igor Campillo 37 tos en el marco de becas convocatorias Marie Curie, en particular de programas conjuntos de doctorado. Hay claros ejemplos en los que ya se demuestra el efecto tractor del campus euro-regional como es el caso de los KICs (Knowledge and Innovation Communities) de envejecimiento activo y materiales en los que colaboramos, sobre todo en el primero. En estas propuestas trabajamos las dos universidades y centros tecnológicos como Tecnalia y otros aliados de la Universidad de Burdeos. Ahora hay que ser capaces de capitalizar la experiencia ganada en la generación de las propuestas y en la generación de este acuerdo para los KICs (Knowledge and Innovation Communities) de la próxima convocatoria. De hecho, ya trabajamos conjuntamente de cara al futuro en uno posible en manufacturing, compartido entre las dos regiones. hacer para resolver los retos tecnológicos de futuro en campos tan importantes para ambas regiones como, por ejemplo, el de manufacturing. Es el reto de cómo van a ser las fábricas del futuro pero también las ciencias numéricas, la salud o crear ciudades y edificios inteligentes o la conservación de los ecosistemas. Hay que hacer un análisis muy detallado de la realidad actual para responder a todos estos desafíos conjuntamente. “1 + 1 deben ser más que 2”. Esa debe ser nuestra gran fuerza de la colaboración entre ambas regiones para llevarnos proyectos europeos. Los tres pilares fundamentales para responder al futuro en Europa son el académico, el tecnológico y el industrial y en este sentido tenemos que avanzar en nuestra colaboración para dar nuevas respuestas. Joseba Jauregizar: ¿Qué instrumentos reales necesitamos para hacer operativas las colaboraciones entre ambos territorios? En el pasado teníamos los programas Euskadi-Aquitania y otros programas europeos pero, ¿entendéis que sería necesario continuar con estos programas apoyados por ambos gobiernos regionales para impulsar la investigación, la formación y la transferencia tecnológica? Helene Jacquet: Sí, sin duda, lo primero es el apoyo a la movilidad de los estudiantes e investigadores en general, en beneficio de su formación. Los KICs (Knowledge and Innovation Communities), por su naturaleza, que reúnen a los poderes públicos territoriales con investigación, el mundo socioeconómico y las empresas pueden ser una palanca. Hay que hacer entrar los problemas actuales de desarrollo económico en la investigación para generar valor real. Tenemos un deseo de internacionalización conjunta, por ejemplo en la Universidad de Burdeos muchas empresas locales nos piden que les acompañemos en procesos de internacionalización. Los poderes públicos deben reforzar las redes internacionales y un reto nuestro es encajar este ecosistema de colaboración entre las dos regiones en el ámbito internacional. Tenemos dos mercados naturales como son los países francófonos y los que hablan español que son recursos a explotar para apuntalar nuestro sistema local. “Para dar respuesta a la innovación hay que integrar a todos los actores en esta cadena de valor, desde la universidad a las empresas pasando por los laboratorios” Fernando Plazaola En definitiva, estamos creando ahora las condiciones para que haya una auto-organización ordenada que nos permita ser mucho más competitivos, tanto para responder a las llamadas de Europa, como para lanzar iniciativas propias. Joseba Jauregizar: Siguiendo esta cuestión, he mencionado antes la estrategia de especialización inteligente RIS3 de Euskadi cuyas áreas principales son la salud, biociencias, manufacturing o energía y me gustaría preguntarle al vicerrector de Innovación de la Universidad de Burdeos, Eric Papon, cuáles son los ámbitos de la estrategia especialización inteligente de Aquitania para ver, de esta manera, algunos focos de colaboración compartida entre ambas regiones en el marco de las estrategias RIS3 Eric Papon: Evidentemente todos tenemos nuestra hoja de ruta definida en el ámbito de la especialización inteligente, hay que definir ahora nuestras competencias en los campos de excelencia de ambas regiones. Tenemos polos estratégicos en fotónica, ecología, materiales, ecosistemas, entre otros. Ahora hay un trabajo por “Necesitamos actuar a diferentes niveles, construyendo confianza entre los investigadores y abriéndonos a la empresa” Antonio Porro MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania Joseba Jauregizar: Hemos entrado de lleno en una de las cuestiones claves, la necesidad de transformar el conocimiento en valor añadido y en economía, en esa reflexión europea actual de cómo superamos esta crisis. ¿Cómo podemos conectar mejor los centros de conocimiento y los centros tecnológicos con las empresas?. ¿Cómo podemos convertirnos en motor de ese desarrollo económico? Jacques Tortos: Lo primero habría que comprobar en qué podemos tener un empuje para que, vestigadores y abriéndonos a la empresa. Es deseable tener escalada la financiación. El gran potencial de la tecnología es dar soluciones a problemas no resueltos pero que impliquen soluciones de valor industrial. La transferencia tecnológica de alto potencial requiere ser tratada de forma especial. En el caso de acudir a fondos europeos, estamos trabajando con agentes en una cadena de valor y hay que identificar oportunidades entre todos ellos para buscar soluciones. Sería muy interesante crear algún foro de reflexión conjunto entre empresas, centros tecnológicos y universidad para identificar desafíos concretos de la zona, que permitan a las empresas de la Euro-región mejorar su posición competitiva. Este podía ser un campo de aterrizaje perfecto para las empresas, en una acción orientada hacia un desarrollo económico basado en el conocimiento. Fernando Plazaola: Una idea muy interesante, pero que creo necesario señalar, es que actualmente existe un desconocimiento de las empresas vascas del potencial empresarial de Aquitania y viceversa. Sería necesario hacer un análisis de la potencialidad empresarial y socioeconómica de las dos regiones Joseba Jauregizar: En una mesa redonda en la que estuve recientemente se comentó que el antídoto contra la crisis es la innovación. ¿Creéis que esto es asumido por la sociedad y los políticos?. ¿Compartís vosotros esta visión? Eric Papon: Es una cuestión difícil pero muy interesante. Tiene mucho que ver con el debate de si la investigación universitaria debe tener una dimensión de mercado. Yo creo que la universidad no tiene que poner en el mercado productos, ya hay otros agentes que lo hacen. Sin embargo, sí que tenemos aún mucho trabajo por hacer para que se piense en la cadena de valor desde el inicio. Un reto necesario para relacionar investigación académica, tecnología e innovación. Tampoco podemos olvidarnos que la innovación también está asociada con otras competencias, con la presencia cada vez más frecuente de profesionales como arquitectos y especialistas en ciencias humanas y sociales asociados a tecnología que ayudan a resolver nuevos retos de nuestra sociedad. “El proceso de colaboración entre Euskadi y Aquitania debe de ser bottom-up y tiene que ir en la línea de reforzar la cadena de valor entre los dos territorios” Joseba Jauregizar trabajando en ambos territorios, exista realmente un valor añadido. Por ejemplo, creación de empresas, sistemas tipo capital riesgo que conectaran redes de ambas regiones y que pudieran aportar un apoyo a proyectos que tengan una doble visión transfronteriza. Hay que buscar herramientas específicas. En cuanto a la conexión entre centros de conocimiento, tecnológicos y empresas, entramos en un área de compartir riesgos y beneficios, hay que crear las condiciones para que surjan proyectos que estén soportados por empresas y centros de ambas regiones. Pasar de la cultura de buscar apoyos a compartir los conocimientos para responder a desafíos reales. Por ejemplo, hoy en día la ciudad inteligente supone creación de nuevos sistemas tecnológicos y ahora en Burdeos estamos trabajando en equipos multidisciplinares de ambas regiones para actuar en un nuevo espacio común que se crea con la llegada del TGV a la capital de Aquitania. Este nuevo espacio es una ciudad que lleva su propia inteligencia, nosotros tenemos el conocimiento si trabajamos juntos. Hay que compartir desafíos para construir soluciones conjuntas. Antonio Porro: Necesitamos actuar a diferentes niveles, construyendo confianza entre los in- Cada vez es más importante asociar culturas científicas diferentes, tecnológicas y sociales. Hay que conectar a investigadores, ingenieros y especialistas en mercado, que controlen cómo funciona. Fernando Plazaola: Evidentemente, ahora estamos en un momento de crisis y creo que es también cuando tenemos que hacer más innovación. Hay una cosa que es importante destacar, en la universidad generamos conocimiento que se transfiere a la cadena de valor. Para dar respuesta a la innovación hay que integrar a todos los actores en esta cadena de valor, desde la universidad hasta las empresas pasando por los laboratorios. Esta es una cuestión pendiente en Euskadi. Hay que evitar los departamentos estancos. En innovación ahora hay que trabajar retos concretos para dar respuestas a problemas concretos y lo voy a ilustrar con un ejemplo: en la EHU-UPV estamos trabajando con una empresa de vidrio, colaborando con ellos en el diseño de nuevos productos desde la Facultad de Bellas Artes, nuevos productos para sacar al mercado. También hay grupos de matemáticos que les están dando respuesta para simplificar sus procesos. Es decir, estamos hablando de que la universidad, junto con los otros actores, tiene muchas potencialidades para dar respuesta a este tipo de innovación. Joseba Jauregizar: Pienso que la integración de la cadena de valor es importante pero también creo que las integraciones deben de hacerse de abajo a arriba, en Euskadi un claro ejemplo es el proyecto Euskampus. También creo que este proceso de colaboración bottom-up entre Euskadi y Aquitania tiene que ir en la línea de reforzar esa cadena de valor entre los dos territorios. Colaborar y cooperar es el camino para el bienestar económico y el éxito de las dos regiones. 39 N IGA CIÓ PRO YEC TOS INV DE EST Nuevos Materiales de Conversión Ascendente para Fotoquimioterapia con Complejos de Metales de Transición Silvia Alonso-de Castro, Emmanuel Ruggiero, Luca Salassa CIC biomaGUNE, Theranostic Nanomedicine Laboratory. Debido a la decisión de celebrar el 2015 como el año de la luz es importante poner en relieve, una vez más, cómo la interacción de la luz con moléculas y materiales juega un papel crucial tanto en el desarrollo de vida como en una increíble variedad de aplicaciones fundamentales. cercano) los efectos biológicos de estas pequeñas moléculas y, posiblemente, mejorar la eficacia de los tratamientos disminuyendo efectos secundarios no deseados. La terapia fotodinámica Nuestro trabajo actual está dirigido a la explotación de la luz y de los estados excitados de materiales híbridos para fines médicos. En particular queremos acoplar nanopartículas de conversión ascendente con profármacos anticancerígenos basados en metales de transición, una clase de agentes contra el cáncer con propiedades únicas. El objetivo es activar con luz de alta penetración (infrarrojo El éxito de la terapia fotodinámica (PDT, photodynamic therapy en inglés) ha atraído mucha atención sobre el uso de la luz y de las reacciones fotoquímicas para aplicaciones en medicina.[1] La PDT hace un uso combinado de la luz y un fotosensibilizador (Figura 1a) para convertir el oxígeno celular de su estado fundamental triplete (3O2) al estado excitado singlete (1O2, Figura 1b). El 1O2 reacciona con varios componentes celulares y puede generar eficazmente especies reactivas de oxígeno (ROS, reactive oxygen species) que inducen el estrés oxidativo, provocando la muerte de células cancerosas directamente irradiadas así como el cierre de los vasos sanguíneos tumorales.[2] La activación de profármacos con luz permite el control temporal y espacial con respecto a la entrega y la aplicación de la terapia contra el cáncer, ya que la acción de las especies biológicamente activas se desencadenaría exclusivamente en las áreas irradiadas. Además, los efectos biológicos generados por la PDT son PROYECTOS DE INVESTIGACIÓN - Nuevos Materiales de Conversión Ascendente muy atractivos desde un punto de vista médico. Por ejemplo, la relativa falta de resistencia inducida por la PDT y un proceso de curación que implica la regeneración de los tejidos normales, en lugar de dejar cicatrices, son ventajas que hacen de la PDT una opción terapéutica viable para una amplia gama de tumores en combinación o como una alternativa a los tratamientos más consolidados.[3] “El desarrollo de nuevos profármacos, con diferentes mecanismos de acción de los fotosensibilizadores actualmente usados en PDT, podría conducir a superar algunos de los inconvenientes asociados a la PDT” oxaliplatino respectivamente, los complejos metálicos se han convertido en una herramienta fundamental para la cura de diferentes tumores. Por esto, se han llevado a cabo una gran cantidad de estudios a lo largo de los últimos años sobre fármacos basados en platino y rutenio, que han facilitado la explotación fotoquímica de complejos metálicos con el objetivo de desarrollar profármacos innovadores y activables con luz.[4] Con el fin último de usar esta tecnología en fotoquimioterapia los complejos deben ser estables e inocuos en la oscuridad bajo condiciones fisiológicas, pero al mismo tiempo tienen que ser capaces de generar especies citotóxicas dirigidas a las funciones claves de las células tras su activación mediante la luz. Las diferencias en citoxicidad en presencia o ausencia de luz son la base del índice de fototoxicidad, un parámetro que marca la eficacia de los complejos metálicos como candidatos para profármacos fotoactivables. Una nueva vía de explotación de este tipo de complejos fotactivables es la diversidad química para desencadenar nuevos mecanismos de muerte celular, independientes de la generación de 1O2 y ROS. De hecho, los complejos de metales de transición presentan una gran variedad de estados excitados accesibles, lo que resultaría en una amplia gama de reacciones químicas.[5] El desarrollo de nuevos profármacos, con diferentes mecanismos de acción de los fotosensibilizadores actualmente usados en PDT, podría conducir a superar algunos de los inconvenientes asociados a la PDT y mencionados anteriormente. Figura 1: (a) Estructuras de fotosensibilizadores aprobados para PDT. (b) Diagrama de los estados excitados de un fotosensibilizador genérico junto con O2 y mecanismo de conversión O2 3 O2. 1 A pesar de su éxito y de algunos desarrollos prometedores, la PDT tiene varios inconvenientes, que actualmente limitan la eficacia del tratamiento. Tales limitaciones, se deben a las propiedades fotofísicas y fotoquímicas de los fotosensibilizadores, así como a sus efectos biológicos. Por ejemplo, i) la longitud de onda de absorción de luz es demasiado corta para lograr una penetración óptima en el tejido, ii) el coeficiente de extinción de los fotosensibilizadores es demasiado bajo, y iii) los pacientes sufren una larga fotosensibilización después del tratamiento debido a la baja eliminación del fármaco. Además, la dependencia del oxígeno molecular es en última instancia, la limitación clave para la eficacia de la PDT, ya que los tejidos tumorales son a menudo hipóxicos (carentes de oxígeno) y normalmente se produce el agotamiento del oxígeno durante el tratamiento PDT, un fenómeno que reduce la eficacia de la terapia. “Las nanopartículas pueden captar y convertir la luz de baja energía en electrones o luz visible, facilitando así la transformación de la fotoquimioterapia en una metodología viable para el tratamiento de lesiones en profundidad” Complejos metálicos fotoactivables como agentes antitumorales Desde el descubrimiento de las propiedades antitumorales del cisplatino y el desarrollo de sus derivados de segunda y tercera generación, carboplatino y Figura 2: (a) Selección de complejos de metales de fotoactivables con actividad antineoplásica. (b) penetración de la luz en los tejidos a diferentes longitudes de onda. Diferentes tipos de complejos fotoactivables han sido desarrollados recientemente para usos relacionados con la biología y la medicina y en particular como agentes anticancerígenos. Concretamente, los complejos de Pt, Rh y Ru (Figura 2a) resaltan entre los compuestos más prometedores in vitro y que incluso en algunos casos se han empleado para estudios in vivo.[6] Un ejemplo significativo son los derivados de Pt(IV) con ligandos azida y entre ellos el trans,trans,trans-[Pt(N3)2(OH)2(NH3)(py)] destaca por sus propiedades antineoplásticas. Este compuesto es muy estable en condiciones fisiológicas y actúa como un profármaco de Pt(II) que en el oscuridad no es tóxico y no produce cambios en la morfología celular. Sin embargo, bajo irradiación con luz (hasta 420 nm), desencadena un mecanismo de muerte celular relacionado con la autofagia. Su actividad ha sido comprobada en un gran número de líneas celulares, y a nivel molecular su acción se debe a la reducción de Pt(IV) a Pt(II) inducida por dicha irradiación. A diferencia del cisplatino, el trans,trans,trans-[Pt(N3)2(OH)2(NH3) (py)] presenta efectos biológicos diferentes, principalmente porque los aductos que forma este último con ADN son totalmente distintos.[7] Cabe destacar, que este complejo de Pt(IV) es activo en ratones portadores de carcinoma de esófago (OE19) cuando es irradiado con luz visible (420 nm). Además, este complejo se puede administrar en una dosis diez veces superior a 41 la dosis máxima tolerada de cisplatino, sin encontrar ningún efecto negativo en el comportamiento de los ratones. Por ejemplo, no hay fototoxicidad oculocutánea, demostrando que trans,trans,trans-[Pt(N3)2(OH)2(NH3)(py)] es activo in vivo y podría provocar menores efectos secundarios comparado con otros agentes.[7] Al igual que la gran mayoría de complejos, trans,trans,trans-[Pt(N3)2(OH)2(NH3) (py)] tiene una limitación muy importante, debida a que sus propiedades de absorción son inadecuadas, o por lo menos no son óptimas, para aplicaciones biomédicas. Por tanto, es crucial encontrar soluciones que permitan resolver tal limitación para avanzar en el uso de complejos metálicos fotoactivos en fotoquimioterapia. Por otro lado, una alta capacidad de absorción en la parte roja del espectro visible, o mejor en el infrarrojo cercano (NIR, near infrared), es fundamental para maximizar la eficacia (es decir, mayor penetración, Figura 2b) de agentes anticancerígenos fotoactivos a base de metales en tejidos cancerosos. De este modo, la obtención de complejos metálicos que presenten una buena absorción en el visible, junto con el aumento de su estabilidad en el estado fundamental y la mejora de su fotorreactividad, es un reto que en la mayoría de los casos requiere una solución de compromiso.[5] en la definición de las propiedades ópticas de estas partículas, ya que determina la posición espacial relativa, el número de coordinación, y el ambiente químico de los iones dopantes. Una matriz ideal debe ser estable químicamente, y tener baja energía fonónica al fin de reducir el decaimiento no radiativo y aumentar la eficiencia de la emisión de la conversión ascendente. Las mejores matrices hospedadoras son generalmente una combinación de fluoruros de metales alcalinos y de tierras raras (Na+, Ca2+, Gd3+ y Y3+). Esto es debido a que estos elementos tienen los mismos radios iónicos que los dopantes de tierras raras, ofreciendo la posibilidad de aumentar la estabilidad de las nanopartículas y reducir los defectos cristalinos.[10,11] Nuevas estrategias de fotoactivación: nanopartículas de conversión ascendente En los últimos años, una estrategia prometedora que persigue superar las limitaciones de los complejos fotoactivables en términos de propiedades de absorción implica el uso de nanopartículas (por ejemplo, puntos cuánticos) que puedan captar y convertir la luz de baja energía en electrones o luz visible, facilitando así la transformación de la fotoquimioterapia en una metodología viable para el tratamiento de lesiones en profundidad.[1,3] Es importante destacar que las nanopartículas pueden ser explotadas simultáneamente como nanoplataformas para la liberación de fotosensibilizadores o profármacos fotoactivables a tejidos específicos y a compartimentos celulares. Además, pueden actuar al mismo tiempo como sondas diagnósticas para la formación de imágenes. En este marco, nuestro grupo ha comenzado recientemente a investigar el uso de nanopartículas de conversión ascendente (UCNPs, upconversion nanoparticles en inglés) como medio de activación de la fotoquímica de complejos de metales de transición que son biológicamente relevantes.[8,9] Las UCNPs son nanocristales dopados con lantánidos que promueven procesos ópticos no lineares como la emisión de fotones de alta energía (en el visible y ultravioleta) después de la absorción secuencial de dos o más fotones en el infrarrojo cercano. En la óptica linear estándar, los fotones absorbidos por un fluoróforo se emiten a mayor longitud de onda (desplazamiento de Stoke) porque el sistema pierde energía durante el decaimiento del estado excitado al estado fundamental. Este proceso se define como luminiscencia (fluorescencia o fosforescencia dependiendo de la naturaleza del estado excitado). Por el contrario, la conversión ascendente (upconversion) implica la absorción de dos o más fotones y la subsiguiente emisión de un solo fotón a la longitud de onda más corta, es decir a mayor energía (desplazamiento de Anti-Stokes, Figura 3a). Tal fenómeno está basado en diferentes mecanismos que pueden implicar absorción en el estado excitado, transferencia de energía, y avalancha de fotones. En resumen, las UCNPs son nanomateriales que tienen la capacidad de emitir fotones en la región ultravioleta y visible bajo excitación en el infrarrojo cercano.[10] “Las UCNPs pueden mejorar el impacto terapéutico de los complejos fotoactivables combinándolos al diseño de sistemas teranósticos” En general, las UCNPs se componen de una matriz hospedadora con elementos lantánidos dopantes en una baja concentración. La matriz juega un papel crucial Figura 3: (a) Espectros de emisión de NaYF4 UCNPs dopadas con Yb3+/Er3+ (arriba) y Yb3+/Tm3+ (abajo) tras la excitación a 980 nm. (b) Mecanismo de la conversión ascendente en UCNPs dopadas con iones Yb3+, Tm3+ y Er3+. Los dopantes se pueden dividir en absorbedores y emisores dependiendo de su función. El ion absorbedor más utilizado es el Yb3+, aunque el Gd3+ también es comúnmente empleado, en particular, si se quieren obtener nanopartículas paramagnéticas que puedan ser usadas como sondas MRI. Ellos son responsables de la absorción de luz NIR (980 nm) y de la transferencia de energía al emisor de iones. Con el fin de maximizar el proceso de la conversión ascendente, los iones absorbedor y emisor deben tener niveles de energía compatibles. El emisor es el elemento responsable de la emisión en el UV-Vis, a través de la relajación radiativa desde sus estados excitados (Figura 3b). Un emisor ideal tiene estados excitados con un tiempo de vida largo (cientos de μs o ms), con el fin de permitir una absorción secuencial de fotones y la población de los estados excitados de alta energía. Elementos lantánidos que cumplen estos criterios son, por ejemplo, Er, Tm, y Ho. Se pueden obtener UCNPs con diferentes espectros de emisión mediante la variación de la composición de los lantánidos de dopaje o de la matriz de acogida. Las nanopartículas que muestran conversión ascendente más eficiente son de NaYF4 dopadas con Yb3+/Tm3+ (azul), Yb3+/Er3+ (verde) y Yb3+/ Ho3+ (rojo).[10,11] Proyectos en curso en CIC biomaGUNE Nuestro grupo está investigando el acoplamiento de nanopartículas de conversión ascendente con complejos de metales fotoactivables dotados de actividad antineoplástica por el enorme potencial de estos sistemas en nanomedicina. Las UCNPs pueden mejorar el impacto terapéutico de los complejos fotoactivables combinándolos al diseño de sistemas teranósticos, donde el complejo metálico actúa como un profármaco terapéutico y las nanopartículas como una fuente de luz en el infrarrojo cercano, como una plataforma de entrega y como un agente multimodal de imágenes (por ejemplo, ópticos y MRI). PROYECTOS DE INVESTIGACIÓN - Nuevos Materiales de Conversión Ascendente A pesar de las propiedades fotofísicas prometedoras de las UCNPs, aún hay muy poca literatura sobre sus usos como activadores de moléculas fotoquímicamente activas. Se han desarrollado hasta ahora varios materiales fotosensibles basados en UCNPs que utilizan andamios orgánicos como los basados en ditienileteno[12] mientras que el uso de moléculas inorgánicas ésta mucho menos explorado. El primer ejemplo que utiliza moléculas inorgánicas ha sido reportado por Ford y colaboradores que han demostrado la liberación de NO mediada por UCNPs a partir de la sal inorgánica [NH4][Fe4S3(NO)7] (sal negro de Roussin).[13] En este marco, recientemente empezamos a investigar si las UCNPs pueden ser explotadas para fotoactivar complejos de rutenio polipiridílicos, una clase de compuestos con importantes propiedades biológicas.[14] Se seleccionó el complejo cis-[Ru(bpy)2(py)2][Cl]2, donde bpy = 2,2´-bipiridina y py = piridina, por su capacidad de liberar de manera eficiente un ligando piridilo y permitir la formación, en solución acuosa, del aquo derivado cis-[Ru(bpy)2(py)(H2O)][Cl]2 mediante excitación con luz. Notablemente, cis-[Ru(bpy)2(py)2][Cl]2 sirve como un modelo para los complejos de rutenio polipiridílicos biológicamente activos, ya que los sistemas basados en cis-[Ru(bpy)2(L)2]2+ y en otras estructuras relacionadas se están convirtiendo en compuestos jaula prometedores para la liberación de neuroquímicos y otros ligandos bioactivos con aplicaciones en la estimulación neuronal, en la inhibición de proteínas y en la terapia del cáncer.[15,16] De hecho hemos sido capaces de demostrar que NaYF4:Yb3+/Er3+ UCNPs son adecuadas para activar con luz infrarroja cercana la fotoquímica de este sistema molecular y obtener el fotoproducto esperado. El solapamiento entre el espectro de absorción de cis-[Ru(bpy)2(py)2][Cl]2 y el perfil de luminiscencia de las UCNPs, destacan la idoneidad de la emisión de estas nanopartículas de aproximadamente 90 nm de diámetro para activar la fotoquímica del complejo. Las simples interacciones electrostáticas entre el complejo cargado y las nanopartículas permiten que la fotorreacción tenga lugar y el ligando piridina se libere. Después de este éxito inicial, ampliamos la aplicación de estos nanomateriales demostrando que las UCNPs pueden mediar la fotoactivación en el NIR de complejos de Pt(IV) precursores de cisplatino, como el derivado cis,cis,trans-[Pt(NH3)2(Cl)2(O2CCH2CH2CO2H)2]. Esta familia de compuestos es representativa de una clase de profármacos candidatos a agentes antitumorales y han alcanzado etapas avanzadas de ensayos clínicos. En este reciente estudio, la decoración de la superficie de las UCNPs NaYF4:Yb3+/Tm3+ con el profármaco de Pt(IV) se ha logrado mediante la conjugación de tal complejo a un fosfolípido pegilado (DSPE-PEG (2000)-NH2) y la formación de un aducto capaz de interactuar con los ligandos hidrófobos que rodean las partículas (Figura 4).[9] Experimentos de fotólisis muestran que la luz infrarroja cercana puede promover la fotoactivación del complejo (aunque su absorción llegue sólo a 400 nm) y que la funcionalización con el fosfolípido pegilado parece ser una estrategia valiosa para desarrollar nanomateriales fotoactivables capaces de liberar especies activas de Pt(II), que son las que finalmente ejercen actividad anticancerígena. Conclusiones Aunque nos encontramos en los estados iniciales de esta investigación, los primeros resultados prometedores destacan claramente que las UCNPs ofrecen una estrategia viable para la activación de complejos metálicos en longitudes de onda más adecuadas para aplicaciones in vivo. Sin embargo, habremos de prestar cuidado a aspectos tales como las consecuencias del calentamiento por láser sobre los tejidos biológicos y la eficiencia de la conversión ascendente. Las UCNPs se basan en la transferencia de energía para la activación de complejos metálicos, por lo tanto, el solapamiento entre la emisión del donante y la absorción del aceptor así como la proximidad entre ellos son parámetros de optimización innegociables. La baja toxicidad (tanto in vitro como in vivo) de UCNPs con respecto a otros nanomateriales y su capacidad de imagen multimodal (MRI/PET/optical) son ventajas clave para su explotación en nuevas aplicaciones nanomédicas. En este sentido, estamos abordando algunos de estos asuntos, y hemos iniciado la investigación de las capacidades de imagen del sistema UCNP-Pt(IV) desarrollado. La optimización de los aspectos anteriormente mencionados nos ofrece la oportunidad de lograr diferentes avances que allanen el camino para el diseño de materiales fotoactivables para los diagnósticos con fines terapéuticos a base de complejos metálicos y UCNPs. Referencias [1] Garaikoetxea Arguinzoniz, A.; Ruggiero, E.; Habtemariam, A.; Hernández-Gil, J.; Salassa, L.; Mareque-Rivas, J. C. Part Part Syst Charact 2014, 31, 46–75. [2] Agostinis, P.; Berg, K.; Cengel, K. A.; Foster, T. H.; Girotti, A. W.; Gollnick S. O.; Hahn S. M.; Hamblin, M. R.; Juzeniene, A.; Kessel, D.; Korbelik, M.; Moan, J.; Mroz, P.; Nowis, D.; Piette, J.; Wilson, B. C.; Golab, J. CA Cancer J Clin 2011, 61, 250–81. [3] Bown, S. G. Phil Trans R Soc A 2013, 371, 20120371–87. [4] Farrer, N. J.; Salassa, L.; Sadler, P. J. Dalton Trans 2009, 10690–701. [5] Wagenknecht, P. S.; Ford, P. C. Coord Chem Rev 2011, 255, 591–616. [6] Ruggiero, E.; Alonso-de Castro, S.; Habtemariam, A.; Salassa, L. Struct Bond 2014, DOI: 10.1007/430_2014_165. [7] Westendorf, A. F.; Woods, J. A.; Korpis, K.; Farrer, N. J.; Salassa, L.; Robinson, K.; Appleyard V.; Murray, K.; Grunert, R.; Thompson, A. M.; Sadler, P. J.; Bednarski, P. J. Mol Cancer Ther 2012, 11, 1894–905. [8] Ruggiero, E.; Habtemariam, A.; Yate, L.; Mareque-Rivas, J. C.; Salassa, L. Chem Comm 2014, 50, 1715–18. [9] Ruggiero, E.; Hernández-Gil, J.; Mareque-Rivas, J. C.; Salassa, L. Chem Comm 2015, In Press, DOI: 10.1039/C4CC07960D. [10] Wang, M.; Abbineni, G.; Clevenger, A.; Mao, C.; Xu, S. Nanomed Nanotech Biol Med 2011, 7, 710–29. [11] Zhou, J.; Liu , Z.; Li, F. Chem Soc Rev 2012, 41, 1323–49. [12] Carling, C.-J.; Boyer, J.-C.; Branda, N. R. Org Biomol Chem 2012, 10, 6159–68. [13] Garcia, J. V.; Yang, J.; Shen, D.; Yao, C.; Li, X.; Wang, R.; Stucky, G. D.; Zhao, D.; Ford, P. C.; Zhang, F. Small 2012, 8, 3800–05. [14] Schatzschneider, U. Eur J Inorg Chem 2010, 1451–67. [15] Fino, E.; Araya, R.; Peterka, D. S. ; Salierno, M.; Etchenique, R.; Yuste, R. Front Neural Circuits 2009, 3, 1–9. Figura 4: Representación esquemática del mecanismo de funcionamiento del sistema fotoac- [16] Respondek, T.; Garner, R. N. ; Herroon, M. K.; Podgorski, I.; Turro, C.; Kodanko, J. J. J Am Chem Soc, 2011, 133, 17164–7. tivable UCNP-Pt(IV) desarrollado recientemente en nuestro laboratorio. 43 N IGA CIÓ PRO YEC TOS INV DE EST Microsensores basados en redes de nanoagujeros Josu Martinez-Perdiguero1, Deitze Otaduy1,2, Aritz Retolaza1,2 y Santos Merino1,2. CIC microGUNE, Arrasate-Mondragón, España. 2 Unidad de Micro y Nanofabricación, IK4-Tekniker, Éibar, España. 1 En CIC microGUNE se investiga en una serie de microsensores novedosos basados en efectos plasmónicos producidos en superficies metálicas nanoestructuradas. Estos microdispositivos ofrecen grandes ventajas como gran sensibilidad, potencial de miniaturización y capacidad de detección sin marcadores en tiempo real. Además, la escalabilidad de las técnicas de fabricación empleadas los convierten en grandes candidatos para una futura industrialización. Una nueva generación de microsensores basados en efectos plasmónicos está a las puertas de irrumpir en multitud de aplicaciones hoy en día dominadas por otros métodos de sensado convencionales. Estos nuevos microsensores ópticos serán más sensibles, más pequeños, más rápidos y capaces tanto de detectar varios compuestos simultáneamente como de funcionar de manera continua en tareas de monitorización. La ciencia de estos microsensores se encuentra en la interacción especial de la luz con nanoestructuras como nanoagujeros, nanoantenas o nanopartículas de dimensiones inferiores a la longitud de onda. Los campos electromagnéticos en la cercanía de las nanoestructuras, producidos por la incidencia de luz, se ven fuertemente afectados por el medio que los rodea, un efecto que puede ser aprovechado para detectar la presencia de determinados compuestos de interés en una muestra en proporciones extremadamente pequeñas. A pesar de que las pruebas de concepto de estos microsensores ya están realizadas, métodos de fabricación a escala nanométrica de alto rendimiento son necesarios para el despegue de esta tecnología. En microGUNE, se investiga en el desarrollo y la optimización de estos microsensores del futuro. Introducción Bajo unas condiciones determinadas, la luz incidente en determinados metales puede dar lugar a ondas de electrones que se propagan de manera muy confinada en la superficie. Estas ondas son conocidas como plasmones superficiales (PS) y las condiciones para su generación (condiciones de resonancia) son ex- Josu Martinez-Perdiguero, doctor en Ciencias Físicas e investigador de CIC microGUNE. Trabaja en el desarrollo de nuevos microsensores MEMS con aplicaciones en ámbitos tan variados como los entornos hostiles o la salud. Deitze Otaduy, licenciada en Ciencias Físicas con especialidad de óptica por la Universidad de Zaragoza. Actualmente es investigadora en la unidad de Micro y Nanoingenineria de CIC microGUNE para el desarrollo de biosensores lab-on-achip y sensores ópticos de aplicación industrial. Aritz Retolaza, doctor en Ciencias Químicas e investigador de la Unidad de Micro y Nanoingeniería de CIC microGUNE. Trabaja en la estructuración de substratos mediante fotolitografía UV y litografía de nanoimpresión con el fin de fabricar dispositivos para uso en distintos campos como por ejemplo la fotónica o la salud. Santos Merino, doctor en Ciencias Físicas y Director de la Unidad de Micro y Nanoingeniería de CIC microGUNE. Trabaja en el desarrollo de procesos de litografía de nanoimpresión y su aplicación a biosensores, medicina regenerativa y fotónica orgánica. PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros Figura 1. Simulación de la interacción de las ondas electromagnéticas con el chip sensor. Se muestra la densidad de energía asociada a la excitación del plasmón superficial, longitud de onda de resonancia. Los cálculos se realizan mediante simplificación por simetrías para reducir el costo computacional. tremadamente sensibles a las propiedades ópticas del entorno inmediato que les rodea. Este fenómeno se puede utilizar para desarrollar sensores ópticos y, de hecho, los sensores basados en resonancia de plasmones superficiales (SPR por sus siglas en inglés) son un instrumento común en muchos laboratorios principalmente para la monitorización de interacciones moleculares en tiempo real sin la necesidad de marcadores (label-free). Típicamente las condiciones de resonancia para acoplar la luz incidente con los PS se han conseguido utilizando la conocida configuración de Kretschmann en la que una capa lisa de unos 50 nm de oro es depositada sobre un prisma. Variando el ángulo de incidencia se consigue, en las condiciones de resonancia, un pico de absorción en la intensidad de luz reflejada, la cual se transforma en PS. Como se puede intuir, al necesitar una configuración no lineal y tener que controlar el ángulo de incidencia de la luz con gran precisión, se requiere de un montaje óptico relativamente complejo. Sin embargo, existen otros métodos para acoplar la luz a los PS incluso más sensibles. Entre ellos, destaca el uso de redes periódicas de nanoagujeros con dimensiones menores que las longitudes de onda de la luz incidente. Según la óptica clásica basada en los principios clásicos de la luz como onda electromagnética, la intensidad de luz trasmitida a través de estos agujeros debería ser prácticamente nula, mucho menor de la que es observada en la realidad. Este efecto es conocido como transmisión óptica extraordinaria y es un fenómeno mediado por la propagación de PS, también llamado resonancia de plasmones localizados (LSPR, de sus siglas en inglés). La luz se transmite de manera lineal y perpendicular al sustrato estructurado, lo que simplifica en gran medida la óptica necesaria facilitando la posible miniaturización e integración de un microsistema sensor. Además, el tamaño de estas redes altamente sensibles es de unas pocas micras cuadradas, lo que dispara las posibilidades de multiplexado al poder crear en pequeños chips un altísimo número de redes independientes capaces de sensar diferentes compuestos simultáneamente. Esto posibilita, por ejemplo, en el campo de la salud, la detección en una única medida de enfermedades caracterizadas por la presencia de varios biomarcadores. Principios básicos de los plasmones superficiales La geometría de las redes periódicas de nanoagujeros es crucial a la hora de diseñar nanosensores con sensibilidades optimizadas y que trabajen en la zona Figura 2. Fotografía de dos redes de nanoagujeros de 500x500 μm2 del máster para la fabricación de chip con capacidad multiplexada. El color de diferente de las redes se debe al efecto de difracción de la luz sobre dos nanoestructuras con distintos periodos. En cada una de estad redes hay aproximadamente 1 millón de nanoagujeros. superficial, longitud de onda de resonancia. Los cálculos se realizan mediante simplificación por simetrías para reducir el costo computacional. 45 del espectro óptico de interés. Una gran parte de trabajos relacionados con este tipo de sistemas son investigaciones teóricas donde se simulan patrones más o menos complejos en la búsqueda de periodicidades, simetrías, tamaño de agujero, materiales u otros parámetros optimizados. Por su simplicidad y validez como prueba de concepto de la tecnología, en microGUNE se trabaja con redes donde i y j son dos números enteros que describen las resonancias de distintos ordenes, p es la periodicidad de la red y Es y Em son las permitividades dieléctricas del medio en contacto con la red (aire, agua...) y del oro respectivamente. Utilizando los principios teóricos se realizan simulaciones computacionales para calcular las geometrías óptimas de mayor sensibilidad a ser fabricadas para cada aplicación. Así, mediante cálculos FDTD (finite-difference time-domain) se calcula la distribución del campo eléctrico perpendicular a la superficie del oro nanoestructurado y densidad de energía asociadas a la excitación del PS (ver Figura 1). También se estudia el estrechamiento y la posición de las resonancias en función del periodo de la red de nanoagujeros, además de calcular el decaimiento del campo evanescente con la distancia. Para aumentar la sensibilidad en ciertos casos, se estudia el efecto que tiene sobre la sensibilidad el hecho de trabajar con substratos con índice de refracción más pequeños que el vidrio. Figura 3. Esquema del proceso NIL donde se muestran los pasos necesarios para llevar a cabo la fabricación de redes de nanoagujeros de oro. cuadradas con periodicidades de 375-600 nm y tamaños de agujero de 100-250 nm. Las capas finas de oro necesarias para crear estas estructuras tienen espesores de 50-100 nm. Las posiciones de las distintas resonancias para redes de este tipo vienen dadas por la siguiente fórmula: 𝜆𝜆!" 𝑖𝑖, 𝑗𝑗 = 𝑝𝑝 𝜀𝜀! 𝜀𝜀! 𝑖𝑖 ! + 𝑗𝑗 ! 𝜀𝜀! +𝜀𝜀! Figura 4. Fotografía de microscopio electrónico de una red de nanoagujeros de oro. PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros Figura 5. Esquema del montaje óptico experimental para la medida del espectro de transmisión a través de las redes de nanoagujeros fabricada. Todas las medidas son realizadas en un ambiente controlado en temperatura y humedad. Fabricación de las nanoestructuras sensoras La cantidad de trabajos de investigación sobre nanosensores basados en resonancia de plasmones superficiales durante los últimos años ha crecido drásticamente. Este hecho está estrechamente unido al desarrollo de la capacidad de fabricación de nanoestructuras tanto mediante métodos “top-down” como “bottom-up”. Dentro de las técnicas de micromecanizado “top-down” que permiten el diseño ad hoc de nanoestructuras, las más utilizadas son la litografía por haz de electrones (EBL) y el haz de iones focalizado (FIB). El EBL “escribe” sobre una resina sensible, normalmente polimetilmetacrilato (PMMA), depositada sobre el sustrato de interés para, a continuación, revelarla y procesar el sustrato mediante técnicas convencionales de microfabricación. A diferencia del EBL, el FIB nanoestructura directamente capas finas mediante el bombardeo con iones de galio. Además de resoluciones de unos pocos nanómetros, ambas técnicas permiten un control casi total de la forma y el tamaño de las estructuras. Por otro lado, el proceso NIL se basa en la transferencia de las estructuras nanométricas presentes en el molde patrón (ver el esquema de la Figura 3). Para ello, el sustrato se cubre con una fina capa de resina y se pone en contacto con el molde (Figura 3a). Controlando las condiciones de presión y temperatura, el polímero fluye dentro de las estructuras del molde, para a continuación, proceder a un desmoldeo controlado que deja la resina nanoestructurada (Figura 3b). Un paso crítico es el ataque mediante plasma de oxígeno de la llamada capa residual de resina que permanece tras el desmoldeo (Figura 3c). Tras este paso, la resina remanente actúa como máscara para depositar la capa fina de oro necesaria (Figura 3d) y la resina es eliminada mediante un proceso de liftoff (Figura 3e). En la Figura 4 se muestra una imagen SEM de una red fabricada mediante esta técnica. En los últimos años han aparecido una serie de técnicas conocidas como litografías alternativas que se presentan como posibles candidatas a medio plazo para la fabricación de alto rendimiento de estructuras nanométricas como las necesarias para el desarrollo de esta nueva generación de nanosensores basados en PS. Uno de los ejes principales de la estrategia de microGUNE es la generación de conocimiento sobre este tipo de métodos de nanofabricación debido principalmente a su potencial industrialización e impacto. Destacan el template stripping y la más madura litografía de nanoimpresión (NIL) las cuales son empleadas en la fabricación de las redes de nanoagujeros para el desarrollo de nanosensores. En el proceso de template stripping una fina capa de oro altamente uniforme y de muy baja rugosidad es evaporada mediante una evaporadora por haz de electrones sobre el molde patrón nanoestructurado (ver Figura 2) y una resina curable es depositada en un vidrio. El molde y el vidrio se ponen en contacto y la resina epoxi es curada por medio de luz UV. Debido a la mejor adhesión del oro a la resina epoxi que al silicio, el oro en contacto con la resina queda adherido sobre el substrato formado por el vidrio y la resina de manera que las estructuras presentes en el molde se transfieren al vidrio, formando en este caso las redes de nanoagujeros. Figura 6. Espectro de transmisión centrado en la longitud de onda de resonancia para la red estudiada para seis concentraciones diferentes de sacarosa de índice de refracción conocido. Se puede apreciar un claro desplazamiento hacia el infrarrojo, longitudes de onda mayores, a mayor concentración de sacarosa, mayor índice de refracción de la muestra. 47 Caracterización de los nanosensores Tras el proceso de fabricación, hay que llevar a cabo la caracterización óptica de las redes. Para ello se trabaja sobre un banco óptico lineal como el esquematizado en la Figura 5 en el que un haz de luz es focalizado sobre el chip de oro estructurado con la red de nanoagujeros. Los espectros de transmisión son estudiados mediante un espectrofotómetro. Para facilitar las medidas con distintas soluciones se emplea una celda microfluídica. En la Figura 6 se muestra la resonancia de primer orden para una de las redes fabricadas y la variación de la longitud de onda con el índice de refracción del medio en contacto. En este caso se han utilizado soluciones calibradas que permiten calcular la sensibilidad de la red, la cual está próxima a los mejores valores encontrados en el estado del arte y son aproximadamente 500 nm por unidad de índice de refracción (nm/RIU). se debe conseguir para poder detectar la presencia de un compuesto en una muestra es que dicho compuesto esté lo más cerca posible de la zona sensora, para ello se funcionaliza específicamente dicha zona para que este quede anclado dentro de la distancia mencionada. Así, hay que remarcar que la eficacia y sensibilidad de estos microsensores no sólo depende del dispositivo en sí, sino también de una adecuada funcionalización de la red sensora. En microGUNE, por tanto, se investiga horizontalmente tanto en el desarrollo de los microsensores como en protocolos óptimos de funcionalización para cada caso de estudio. Además de comparar las longitudes de onda de resonancia obtenidas para las distintas redes fabricadas entre sí, se comprueba que dichas longitudes de onda obtenidas experimentalmente concuerdan con las calculadas mediante simulación. Como muestra la Figura 7, para una red de periodo 450 nm y diámetro de agujeros de 200 nm inmersa en agua, la concordancia es alta lo que ratifica la validez de los procesos de fabricación y simulación. Como se puede apreciar en los valores de las longitudes de onda de las figuras, las nanoestructuras se han diseñado de tal forma que las resonancias se encuentren en el espectro del visible. Teóricamente, aumentando el periodo de las redes, la longitud de onda de resonancia se desplaza hacia el infrarrojo cercano o medio y es posible aumentar la sensibilidad a la vez que se simplifica la fabricación debido a que las dimensiones críticas son mayores. Sin embargo, trabajar con longitudes de onda fuera del visible conlleva el inconveniente de tener que usar una instrumentación mucho más cara y delicada que necesita unas condiciones de trabajo más exigentes, encareciendo altamente el sistema. Esto hace que, a pesar del interés básico que pueda suscitar, quede fuera del objetivo de esta investigación que es desarrollar microsensores de bajo coste, portátiles, robustos y competitivos frente a técnicas estándar. El rango de influencia de los PS es de unos 50 nm por lo que lo primero que Figura 7. Representación de las longitudes de onda de resonancia experimental frente a simulada para una red de nanoagujeros. Se puede observar una buena correspondencia, lo que indica que las simulaciones son un buen soporte para definir las características óptimas de las nanoestructuras en función de la aplicación. PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros Figura 8. Monitorización a tiempo real de la adsorción de BSA sobre la superficie de oro. Evolución de la intensidad a una determinada longitud de onda en donde el cambio es más significativo. Se puede observar que la proteína de BSA se inyecta en t=150s lo que provoca un cambio de la intensidad, cuyo valor va a aumentando hasta que a t=700s aproximadamente la superficie de oro se satura y no se produce más adsorción de BSA, la intensidad tiende a un valor constante. Aplicación y prueba de concepto Una de las aplicaciones estudiadas y utilizada como prueba de concepto con estos microsensores basados en LSPR es la detección de citoquinas en suero asociadas a las enfermedades inflamatorias autoinmunes, como lo son la Interleuquina 6 (IL-6), Factor de Necrosis Tumoral Alfa (TNF-α), y la Interleuquina 12 (IL-12). El dato de la concentración de estas proteínas en suero se considera esencial para establecer un pronóstico sobre la cascada inflamatoria y así esta- blecer un criterio basado en un objetivo molecular cuantificable para la administración de terapias basadas en anti-TNF alfa. Sin embargo, la concentración de estas proteínas en suero es muy baja y se requiere un sistema de detección de altísima sensibilidad, algo que hay día de hoy solo es posible en laboratorios altamente especializados. Los microsensores desarrollados no sólo tienen la capacidad de medir la concentración de compuestos de manera totalmente label-free, i.e., sin marcadores, sino que además, fijada una longitud de onda óptima, mediante la monitorización de la evolución de la intensidad, se pueden realizar medidas en tiempo real. Con el objetivo de demostrar dicha capacidad, en la Figura 8 se muestra la monitorización en tiempo real de la adsorción de proteínas en una superficie de oro. En este experimento en concreto, se incubaron 50 µg/ml de suero bovino (BSA, Bovine Serum Albumin) sobre un chip de nanoagujeros de diámetro 155 nm y periodo de red de 500 nm. La figura representa la intensidad transmitida a una longitud de onda fija (645 nm, precisamente donde se recoge el mayor cambio de señal) frente al tiempo de incubación donde se puede observar la cinética de absorción de BSA a la superficie de oro en un modo real-time label-free. En el momento en que se inyecta la muestra y la proteína es adsorbida en la superficie, la señal aumenta. Este aumento se da hasta llegar a una saturación donde la señal se estabiliza, indicando así la total ocupación de la superficie por la proteína. Conclusiones y perspectivas Los efectos plasmónicos que se generan debido a la interacción especial de la luz con nanoestructuras pueden ser utilizados como señales de transducción para una nueva generación de microsensores ultrasensibles. En microGUNE no sólo se está trabajando en la caracterización de estas interacciones para el diseño de las nanoestructuras óptimas sino que también se están desarrollando tecnologías de nanofabricación avanzas de alto rendimiento, de manera que la investigación se encamine hacia una futura industrialización. Las barreras tecnológicas y retos en el conocimiento que presentan este tipo de microsistemas están siendo superados, por lo que las perspectivas de éxito son alentadoras. 49 N IGA CIÓ PRO YEC TOS INV DE EST Máquinas portables Modelo de definición de sus límites funcionales J. Eguia(1), L. Uriarte(1), A. Lamikiz(2) (1) IK4 – TEKNIKER, Polo Tecnológico de Eibar. (2) Departamento de Ingeniería Mecánica, Escuela Técnica Superior de Ingeniería, Universidad del País Vasco UPV/EHU. En respuesta a los desafíos ineludibles del proceso de desarrollo de piezas de gran volumen, la tendencia general es emplear grandes máquinas, muy problemáticas. Los autores proponen aquí una alternativa y sientan las bases de una metodología para evaluar el efecto último de las nuevas soluciones. En los últimos años y en relación con la fabricación de grandes piezas, desde el ámbito científico se ha propuesto un cambio de modelo que busca acabar con el dogma “máquinas grande alrededor de y para piezas grandes” en favor de nuevas máquinas herramienta de pequeño tamaño que puedan ser transportadas hasta la pieza en servicio y que puedan posicionarse con libertad sobre la misma para realizar la labor de mecanizado. Estas máquinas reciben convencionalmente el nombre de máquinas portables y son la base de un nuevo modelo: “máquinas pequeñas sobre y para piezas grandes”. Aún hay aspectos tecnológicos no resueltos en este tipo de máquinas que impiden delimitar claramente sus capacidades, e.g. proyectar cuidadosamente la configuración cinemática de la máquina, (serie, paralelo, híbrido), plantear estructuras de máquina optimizadas, con uniformidad de rigidez en todas las direcciones del espacio de trabajo, libre de chatter, alta rigidez dinámica, bajos niveles de vibraciones y otras. El presente artículo presenta una metodología sistemática para el modelizado y diseño de este tipo particular de máquina, y explora las posibilidades de optimización resultantes de la aplicación el modelo. INTRODUCCIÓN Inmersos como estamos en una economía crecientemente globalizada, estamos asistiendo a la tendencia a deslocalizar las industrias basadas en productos de bajo valor añadido y procesos de fabricación intensivos en mano de obra. Así, la fabricación de gran cantidad de bienes se ha trasladado hacia lugares con menores costes salariales. Sin embargo, en aquellos procesos y piezas de gran responsabilidad esta tendencia es mucho más lenta, cuando no inexistente. Un caso particular de este tipo de pieza o producto son las piezas mecanizadas de gran tamaño, como las que se necesitan en sectores tractores como la industria naval, la energía eólica, las grandes instalaciones científicas etc. De manera muy clara, el País Vasco se ha destacado por especializar gran parte de su industria de fabricantes de máquina-herramienta en este mercado: la producción en pequeñas series de maquinas de gran tamaño. Sin embargo, las máquinas de gran tamaño son complejas de diseñar y precisan inversiones muy importantes durante el proceso de fabricación, montaje y puesta a punto, tal y como dejaron de manifiesto Uriarte et al [1]. Son, por tanto, técnica y organizativamente un desafío muy complejo para cualquier empresa. En los últimos años se ha hecho notar que en la gran mayoría de ocasiones la geometría a mecanizar no es de gran tamaño, aunque la pieza lo sea. Para estos casos, se ha propuesto un cambio de modelo que busca acabar con el dogma “máquinas grandes alrededor de y para piezas grandes” en favor de nuevas máquinas herramienta de pequeño tamaño que puedan ser transportadas hasta el entorno de la pieza en servicio y que puedan posicionarse con libertad sobre la PROYECTOS DE INVESTIGACIÓN - Máquinas portables - Modelo de definición de sus límites funcionales misma. Una vez colocadas, pueden realizar la labor de mecanizado con calidad equivalente a la de las máquinas grandes. Estas máquinas, inteligentes y de pequeño tamaño, que son llevadas hasta la pieza y son libres para moverse y trabajar sobre ella reciben convencionalmente el nombre de máquinas portables y son la base del nuevo enfoque “máquinas pequeñas sobre piezas grandes” [2]. Estas máquinas portables han mostrado ser una mejora desde diversos puntos de vista. Neugebauer et al. [3] demostraron los beneficios energéticos del enfoque de las máquinas portables, a la vez que Zulaika [4] et al. Probaban mejoras de proceso asociadas a mejoras en la rigidez de componentes de máquinas aun manteniendo una alta movilidad [5]. Otros beneficios vienen de su capacidad de miniaturización [6] y de su mayor adaptabilidad, mutabilidad y capacidad multifunción [7]. La literatura científica, sin embargo, no presenta trabajos que traten de modelizar el empleo global de las máquinas portables en un entorno industrial, centrándose únicamente en aspectos de topología y rigidez. Faltan trabajos que delimiten las capacidades de estas máquinas y que definan claramente sus resultados operativos. Por ello, las máquinas portables están teniendo una implantación muy lenta en la industria. A los usuarios les cuesta prever o anticipar el resultado que van a dar las máquinas portables el mecanizar, reparar o inspeccionar una pieza concreta, por lo que la industria se muestra reticente a arriesgar e invertir en este nuevo paradigma de máquina. El presente artículo presenta un método simplificado y ajustado de modelización de máquinas portables, suficiente para predecir el comportamiento de las mismas en términos de precisión de la pieza mecanizada. A fin de que el método sea lo suficientemente general, válido para cualquier configuración, arquitectura y solución de sensorización de la máquina, se apoya en las técnicas de virtualización recopiladas por Altintas et al. [8]. Se propone, por tanto un método virtual de modelado de máquinas portables suficiente como para predecir el presupuesto de errores se la máquina y poder representar gráficamente el empleo de la misma. Se ha aplicado el modelo propuesto sobre una máquina portable serie empleada a modo de demostrador. COMPONENTES DEL MODELO El trabajo se ha basado en el listado de errores descrito por Lamikuz et al. [9], de los que se han seleccionado los componentes más claramente ligados al funcionamiento de las máquinas portables. En relación con los errores de una máquina herramienta típica, son todos errores a considerar salvo los errores debidos a las deformaciones térmicas. Esto es así porque una máquina portable pasa la mayor parte del tiempo desplazándose a los largo de la pieza de gran tamaño, y opera sobre ella en zonas concretas y durante periodos de tiempo muy cortos. El efecto del calor generado durante el funcionamiento es por tanto mínimo dado que a la máquina se le da tiempo a recuperar sus dimensiones nominales entre operaciones. En la siguiente tabla se observan los errores finalmente considerados. Errores de la máquina Guideway positioning error Errores por el proceso Auxiliary Alignment Systems and the Reference Set-up Tool deflection Uncertainty of the reference position Tool wear Effect of reversal of linear movements Vibrations Angular errors Machine trajectory errors Errors in the spindle, including the spindle-shank, shank-collet and collet-tool interfaces Figura 1. Caracterización experimental de los componentes Todos los errores de la máquina de causas deterministas pueden representarse y analizarse a priori y compensarse durante su utilización. Para los no deterministas, se pueden representar en base a una incertidumbre caracterizada a partir de las desviaciones típicas de una serie de ensayos experimentales. En cuanto a los errores del modelo de rigidez y el proceso, se pueden representar fielmente caracterizando las fuerzas de proceso e introduciéndolas en un modelo de rigidez de la máquina suficiente. En cuanto a los errores de referenciación, se ha seguido una metodología que permita su caracterización homogénea con el resto de errores de máquina a fin de que pueda ser introducido en el mismo sistema de análisis. El modelo ha sido creado sobre el software MSC ADAMS. El modelo de proceso: rigidez y fuerzas de proceso Cualquier estructura de máquina puede ser modelada mediante elementos finitos. En cuanto a los apoyos de la máquina sobre la estructura, el sistema de cabezal más herramienta, estos se han estudiado experimentalmente. En cuanto al cabezal, se ha realizado un análisis modal experimental en configuración libre-libre y la FRF resultante se ha incluido en el modelo FEM de la máquina. De forma equivalente, tanto los apoyos mediante ventosa como el conjunto porta-herramienta más pinza más herramienta se han ensayado experimentalmente e introducido en el modelo. A partir de aquí, las fuerzas de proceso pueden obtenerse según Gonzalo et al. E introducirse en el modelo ADAMS sincronizadas con las trayectorias de la punta de herramienta a fin de simular el proceso. De esta forma, queda cubierta y representada en el modelo virtual la interacción pieza – proceso – máquina. El modelo de errores máquina En el mismo modelo ADAMS, se ha introducido “El modelo de los 21 errores” de una fresadora convencional tecnológicamente equivalente. Se trata de una síntesis de los componentes de error volumétrico, por lo que se considera una forma eficaz (y simple) de representar todos los errores de la máquina. El modelo se basa en la cinemática de cuerpos rígidos, considerando por lo tanto la hipótesis que todos los cuerpos son rígidos y que el movimiento de uno no afecta a los demás. Bajo esta hipótesis, el modelo de los 21 errores encuentra el origen del error volumétrico de la máquina en cada eje de movimiento, por lo que se facilita las posteriores compensaciones mecánicas y representación virtual, como es el caso. Figura 1. Esquema del modelo. Para el modelo, se ha medido en una máquina equivalente cada error de forma directa con el movimiento del eje que corresponde en un sistema de referencia propio. El modelo ADAMS se encarga de propagar estos errores a través de los sistemas de referencia 51 pieza ejecutados en el CAM de tal forma que una determinada operación puede ser realizada con una sola programación e independientemente de la posición relativa final entre máquina y pieza. Para poder realizar todo ello, en primer lugar se calibró el sensor láser según se describe en [11]. Se empleó un artefact consistente en tres esferas calibradas que se medían mediante un láser tracker externo y nuestro escáner. En el sistema de coordenadas máquina y en el sistema de coordenadas del láser, los centros de las esferas son puntos conjugados (xw, yw, zw, 1) y (xs, ys, zs, 1) que se relacionan mediante una matriz de transformación homogénea desconocida. t11 t12 t13 p1 WsT = t21 t22 t23 p2 t31 t32 t33 p3 0 0 0 1 De forma qué (xw, yw, zw, 1)T = wsT (xs, ys, zs, 1)T De [11], sabemos que t112 + t212 + t312 = 1 t122 + t222 + t322 = 1 t132 + t232 + t332 = 1 t12t13 + t22 t23 + t32t33 = 0 Figura 2. Caracterización experimental de los componente Las incógnitas pueden obtenerse resolviendo el siguiente problema de minimización El modelo de referenciación Min F = Σ IPwi – wsT PsiI2 + λ1( t112 + t212 + t312– 1) + λ2(t122 + t222 + t322 – 1) + λ3(t132 + t232 + t332 – 1) + λ4 (t12t13 + t22 t23 + t32t33) Toda máquina portable precisa de un sensor maestro que ayude a ubicarlo con respecto a la pieza que va a mecanizar. Es habitual emplear palpadores como método de obtención de las posiciones relativas [10], pero el palpado exige una supervisión por parte del operario que le resta universalidad y flexibilidad de uso. En la presente investigación se ha optado por un escáner laser lineal que se emplea para identificar referencias naturales en las piezas. Siguiendo el desplazamiento de las nubes de puntos y comparándolas entre sí mediante algoritmos ICP (Iterative Closest Point), se puede deducir el desplazamiento realizado por la máquina. Más aún, si la comparativa se realiza entre una nube de puntos y el CAD, es posible determinar la posición y orientación relativa entre la pieza y la máquina representado como una matriz de transformación homogénea. Empleando esta matriz de transformación el CNC puede rehacer los programas Una vez calibrado el sensor, se ha caracterizado la precisión y repetitividad que da el sistema de referenciación propuesto. Para ello, sobre una fresadora convencional se han instalado el láser como sensor y como blanco la pieza NAS definida en según UNE 15450 – 7. Se han creado desplazamientos controlados de la pieza sobre la mesa (15 repeticiones por punto) y se ha ejecutado el esquema propuesto. De estos ensayos se ha obtenido que el error medio del método es de 0.15 mm (max. 0.3 mm) con una desviación típica de entre 0.02 mm y 0.14 mm para desplazamientos lineales, y de error medio: 0.04º y Desviación típica de entre 0.02º - 0.9º para el caso de desplazamientos angulares. En el modelo ADAMS, estas medias y desviaciones típicas se pueden introducir como un offset de distribución normal con la media y las varianzas caracterizadas. El modelo de uso Según se ha explicado previamente, las máquinas portables se desplazan sobre piezas grandes y trabajan sobre ellas dentro de su pequeño volumen de trabajo. Mientras mecaniza la pieza, la máquina portable puede estar fija/quieta o desplazarse ella misma. Este segundo caso es el más complejo de representar, modelizar y optimizar. Para todo ellos, se ha acoplado al modelo de máquina de ADAMS un bloque/sistema de Simulink que permite repartir las trayectorias dictadas por un programa del CAD al CNC entre los distintos accionamientos. Es decir, suponiendo un volumen de trabajo más grande que la propia pieza, hay que descomponer la misma en tantos trozos como necesite la máquina portable según su volumen de trabajo. Las trayectorias globales se dividen entre los movimientos de los ejes dentro de cada cuadrado y el movimiento de la máquina de cuadrado en cuadrado, según la siguiente figura. Figura 3. Esquema del sistema de referenciación desarrollado Esta descomposición se puede realizar de forma muy simple según Dijkstra, Floyd-Warshall o Bellman-Ford, y la descomposición de trayectorias entre sistemas se resuelve e integra en el modelo Simulink según Armentia et al [12], usando o bien un filtro de primer orden o la identificación de sistemas. Esto permite el modelizar todos los casos, sea mecanizado con máquina fija o con máquina móvil. PROYECTOS DE INVESTIGACIÓN - Máquinas portables - Modelo de definición de sus límites funcionales de caracterizar e introducir estos elementos en un modelo. Como resultado, se obtiene un modelo amplio, integrado y muy completo que sirve para predecir el resultado final de la operación. Asimismo, permite al diseñador la optimización de sus múltiples elementos y el ajuste a una determinada aplicación de forma muy directa. Figura 4. Descomposición automática de una operación según el espacio de trabajo cuadrado en orientación aleatoria OPTIMIZACIÓN Y MEJORAS La existencia de un modelo virtual de la máquina, desde su estructura a su uso para mecanizado, permite no solo anticipar el funcionamiento global de las mismas sino optimizar su concepto y sus componentes para una determinada aplicación. De esta forma, y sin incurrir en costes de desarrollo prohibitivos, se pueden ajustar los desarrollos a las necesidades y maximizar las prestaciones deseadas del sistema. En el caso de la presente investigación, se ha optimizado el uso del sistema para acometer operaciones de reparación, recuperación de superficies, repaso de soldaduras e inspección durante la fase de ensamblado de los distintos subsectores que conforman la cámara de vacío toroidal del nuevo Reactor Experimental de Fusión ITER. En esta aplicación, se exige el acceso a puertos y zonas de pequeños dimensiones y operaciones de mecanizado con brazos de par muy elevados, por haber penetrado el cabezal en una cavidad notablemente distante de los apoyos de la máquina. Con vistas a esta aplicación, se ha empleado el modelo para optimizar la rigidez del sistema minimizando el peso del sistema completo. El resultado es un modelo de máquina equivalente el peso a las empleadas en el proyecto ITER pero con una rigidez muy superior, como se ha descrito en [13] Figura 6. Estructura de máquina optimizada para el mecanizado sobre la vasija de ITER REFERENCIAS [1] L. Uriarte, M. Zatarain, D. Axinte, J. Yagüe-Fabra, S. Ihlenfeldt, J. Eguia, A. Olarra. Machine tools for large parts. CIRP Annals Manufacturing Technology. [2] J. Allen, D. Axinte, P. Roberts. A review of recent developments in the design of special-purpose machine tools with a view to identification of solutions for portable in situ-machining systems. Int. J. Adv. Manuf. Technol (2010) 50:843-857. [3] R. Neugebauer, M. Wabner, H. Rentzsch, s. Ihlenfeldt. Structure principles of energy efficient machine tool. CIRP Journal of Manufacturing, Science and Technology Volume 4, Issue 2, 2011, Pages 136 – 147. [4] Zulaika, J., Campa, F. J., 2009, New concepts for structural components, Machine Tools for High Performance Machining, London, Springer Verlag, 47-73. [5] Schwaar, M., Schwaar, T., Ihlenfeldt, S., Rentzsch, H., 2010, Mobile 5-axes machining centres, ICMC 2010 - Sustainable Production for Resource Efficiency and Ecomobility, pp. 169-184, 29-30 Sept., Chemnitz, Germany. [6] Liow, J.L., 2009, Mechanical micromachining: a sustainable micro-device manufacturing approach? Journal of Cleaner Production, 17:662–667. [7] Moriwaki, T., 2008, Multi-functional machine tool, Annals of the CIRP, 57/2:736–749. [8] Altintas Y., Brecher C., Weck M., Witt S., Virtual Machine Tool, CIRP Annals - Manufacturing Technology, Volume 54, Issue 2, 2005, Pages 115-138. [9] A. Lamikiz, L. N. Lopez de Lacalle and A. Celaya, Machine Tool Performance and Precision, Machine Tools for High Performance Machining - Chapter 6, p 219 -260, Springer, 2009, ISBN 978-1-84800-380-4 [10] H.-C. Möhring, Fast reacting maintenance of forming tools with a transportable machining unit, CIRP Annals - Manufacturing Technology 58 (2009) 359–362. Figura 5. Tratamiento de las trayectorias y descomposición entre ejes máquina y ejes mecanizado trabajo cuadrado en orientación aleatoria CONCLUSIONES En el presente documento se ha presentado una metodología virtual para modelizar y caracterizar de forma completa el uso de nuevas máquinas portables. Se han identificado los principales componentes (rigidez, anclaje, estructura y referenciación) que influyen en su desempeño y se ha propuesto una forma [11] Chenggang Chea, Jun Nib , A ball-target-based extrinsic calibration technique for high-accuracy 3-D metrology using off-the-shelf laserstripe sensors, Journal of the International Societies for Precision Engineering and Nanotechnology, 24 (2000), 210–219. [12] M. Armendia, J. Madariaga, I. Ruiz de Argandoña; Axis On Axis System To Improve Machine Tool Productivity, 9th International High Speed Machining, March 2012. [13] Josu Eguia, Aitzol Lamikiz, Jesús Alonso, New portable machine for the in-situ inspection, repair and manufacturing of complex features in remote locations within the vacuum vessel of ITER, Symposium of Fusion technology, SOFT 2014. 53 VE BRE I EN KAD EUS Una investigación del CIC nanoGUNE abre nuevas oportunidades para el desarrollo de dispositivos y circuitos fotónicos más pequeños y rápidos Se trata de un experimento que muestra que la luz guiada en el grafeno puede ser dirigida y curvada siguiendo los principios fundamentales de la óptica convencional. Investigadores de CIC nanoGUNE, en colaboración con el ICFO y Graphenea, han desarrollado una plataforma tecnológica basada en antenas metálicas que permiten atrapar y controlar la luz que se propaga a lo largo del grafeno, un material de un solo átomo de espesor. Tinta con nanoparticulas para un diagnóstico rápido CIC biomaGUNE propone una novedosa técnica para sustituir los sustratos utilizados para la detección de sustancias químicas y facilitar el diagnóstico rápido mediante nanoparticulas de oro o plata en tintas convencionales. Los experimentos realizados muestran que los principios fundamentales y más importantes de la óptica convencional también se aplican a los plasmones del grafeno, es decir, a luz extremadamente comprimida que se propaga a lo largo de una sola capa de átomos de carbono. Los futuros desarrollos basados en estos resultados podrían conducir a circuitos y dispositivos ópticos extremadamente miniaturizados que podrían ser utilizados en aplicaciones de detección y computación. La prestigiosa revista científica Science ha publicado dicho trabajo. La revista científica “Small” ha publicado un proyecto dirigido por el Dr. Luis Liz Marzán, director científico de CIC biomaGUNE, que incorpora nanopartículas de oro y pla- EUSKADI EN BREVE ta a la tinta convencional, la misma que incorporan nuestros bolígrafos o plumas, como solución avanzada para identificar moléculas en ámbitos como el diagnóstico médico, la biología, el medioambiente, la seguridad, etc. Es decir, la tinta no solo va a ser conductora de mensajes, emociones, elaborados ensayos o noticias en los periódicos, sino que, a su vez, se puede convertir en una herramienta óptima, barata y de fácil acceso para que un investigador o un médico pueda extraer conclusiones a escala molecular que hasta ahora requerían de gran instrumentación técnica y elevado coste económico. Sólo requerirá de una pluma estilográfica y un folio DIN A4. El futuro de las microtecnologías en la industria analizado por el CIC microGUNE Investigadores y profesionales del mundo industrial conocen las líneas de investigación y los retos de futuro. El estudio, realizado en el centro con sede en Donostia-San Sebastián, propone una nueva técnica cuya principal aportación consiste en facilitar y abaratar la creación de los sustratos químicos que se utilizan para identificar moléculas en cualquier campo de actuación, moléculas que son analizadas y descritas por medio de equipos de espectroscopía. En definitiva, se espera que esta técnica contribuirá, por ejemplo, al diagnóstico rápido de enfermedades. Tecnalia gana el “Óscar” a la innovación EARTO otorgó el pasado año su Premio a la Innovación 2014 al proyecto Biosimil de TECNALIA, un buscador informático de muestras biológicas y médicas que contribuye a mejorar el diagnóstico y tratamiento de enfermedades. El workshop organizado por el CIC microGUNE ha sido el punto de partida para ofrecer a investigadores y profesionales del mundo industrial las claves sobre la importancia que tienen las microtecnologías en la industria vasca y los retos de futuro que se plantean. Los avances en relación a los microsistemas en ambientes hostiles y en el ámbito de la salud completaron esta jornada en la que se ha hablado también de innovación, automoción y salud. A partir de las intervenciones de los participantes, se han conocido diferentes opiniones en relación al futuro de las microtecnologías desde el punto de vista empresarial y de usuario final. Marisa Arriola, de BIC Berrilan, expuso los retos de las empresas guipuzcoanas, Mikel Lorente, del Cluster de Automoción, habló sobre la orientación de la investigación en función de las empresas del sector de la automoción, presentando sus actividades. Por su parte, Raquel Benito, del Hospital Universitario de Cruces – IIS BioCruces, ha basado su ponencia en la creatividad como herramienta para la innovación, y Jaime Castillo, de Enaiden, basó su visión, como emprendedor, sobre los retos de las microtecnologías para la industria vasca. El Premio, considerado el “Óscar” a la Innovación, se entregó en Bruselas en presencia de Joaquín Almunia. Con este Premio, EARTO quiere recompensar las mejores innovaciones que se desarrollan en Europa, basándose en la viabilidad de su puesta en marcha, así como en el impacto social y económico que suponen. Biosimil ha sido desarrollado por TECNALIA en el marco del proyecto sanitario Biopool, liderado por el Biobanco Vasco para la Investigación y el equipo de ComputerVision de TECNALIA. 55 CIC tourGUNE y la OMT renuevan su compromiso de colaboración El Memorando de Entendimiento sella la voluntad de las dos entidades en seguir colaborando en los retos del sector turístico. CIC bioGUNE celebra su décimo aniversario y reordena las áreas de actuación científica El centro, inaugurado en 2005, acometerá nuevos proyectos y focalizará su actividad alrededor de cuatro grandes ámbitos: cáncer, enfermedades infecciosas, metabolismo y enfermedad y homeostasis de proteínas. La Tercera Cumbre Mundial sobre el Turismo Urbano celebrada en Barcelona ha servido para refrendar el compromiso de colaboración entre CIC tourGUNE y la Organización Mundial del Turismo (OMT). A través del Memorando de Entendimiento ambas entidades se comprometen a seguir profundizando en los retos del sector turístico. En la cita de Barcelona también se presentó la publicación Global Benchmarking for City Tourismn, elaborada por CIC TourGUNE. Este trabajo trata de llevar a lo local la reflexión que viene realizándose en torno a la medición del turismo a nivel subnacional y el trabajo de consensuar estándares a nivel internacional, en el marco de la Red INRouTe, cuya Secretaría General corresponde a CICtourGUNE. Tras diez años de andadura, CIC bioGUNE es una realidad dentro del panorama científico nacional e internacional como agente generador de conocimiento en el área de las biociencias. Sus investigaciones de vanguardia en la interfaz entre biología estructural, molecular y celular, con especial atención al estudio de las bases moleculares de la enfermedad, tienen como destino su desarrollo en nuevos métodos de diagnóstico y terapias avanzadas. Con el objetivo de continuar su proyección dentro de los institutos de investigación de primer nivel, CIC bioGUNE se prepara para un nuevo tiempo reordenando las áreas de actuación científica y focalizando su actividad alrededor de cuatro grandes ámbitos: cáncer, enfermedades infecciones, metabolismo y enfermedad y homeostasis de proteínas. José María Mato continuará liderando la dirección general de CIC bioGUNE y CIC biomaGUNE, especializado en los nanobiomateriales, pero delegará la dirección de la estrategia científica en el reconocido químico Jesús Jiménez Barbero, actual presidente de la Real Sociedad Española de Química. Durante esta década CIC bioGUNE ha publicado más de 500 artículos en revistas científicas internacionales, se han concedido cuatro patentes, tres de las cuales están en explotación, y hay otras cuatro más solicitadas. Las fondos recibidos alcanzan los 90 millones de euros, si bien los investigadores de CIC bioGUNE han conseguido un total de 44 millones de euros en proyectos competitivos. Asimismo, el centro ha participado en la creación de tres empresas. EUSKADI EN BREVE Congreso internacional de baterías avanzadas de litio en Bilbao CIC Energigune será este año el anfitrión de la 8ª Conferencia Internacional sobre baterías avanzadas de litio para automóviles, ABAA8. El congreso, que se celebrará en el Palacio Euskalduna de Bilbao del 30 de septiembre al 2 de octubre, es la primera vez que se organiza en España y es el principal encuentro mundial para debatir y compartir los progresos en la investigación y desarrollo de las baterías de litio en el sector del automóvil. CIC biomaGUNE y la Universidad del País Vasco unidos en la investigación de nuevos tratamientos neuroprotectores Investigadores de los dos centros han identificado una molécula clave que podría conducir al desarrollo de nuevas terapias para paliar el daño cerebral. ABAA8 reunirá durante tres días a los principales expertos internacionales en el campo de las baterías de litio que se diseñan para automóviles, desde investigadores y académicos hasta representantes de las industria automovilística y de baterías, contando también con una importante representación institucional internacional. Las baterías de litio son fundamentales para desarrollar una nueva generación de automóviles eficientes, desde los híbridos hasta los 100% eléctricos. Entre otros aspectos, se presentarán los avances en nuevos materiales, la seguridad de las baterías, su diseño o nuevas formas de almacenamiento de la energía. CIC Energigune, que fue designado como organizador de la conferencia el año pasado en Japón, ha preparado un ambicioso programa en colaboración con “Argonne National Lab” y la “International Automotive Lithium Battery Association”. Las inscripciones están ya abiertas en: http://abaa8.cicenergigune.com/ CIC marGUNE coordina una línea de investigación sobre uniones de materiales disimilares El proyecto busca desarrollar tecnologías que permitan obtener componentes de mayor valor añadido. Los sectores de automoción y aeronáutica serían los principales beneficiados. La isquemia cerebral se produce como consecuencia de la disminución transitoria o permanente del flujo sanguíneo cerebral y causa daño neuronal irreversible que provoca alteraciones neurológicas. Una parte importante de este deterioro se debe a la alteración en los niveles de glutamato, el neurotransmisor excitador más abundante del cerebro que actúa a su vez como una potente neurotoxina cuando su concentración se eleva, como ocurre durante la isquemia. Según el hallazgo de los investigadores de la UPV/EHU y del CIC biomaGUNE, la molecula xCT, el intercambiador cistinaglutámico se acumula hasta niveles letales para las neuronas durante la isquemia. Y así lo han comprobado en modelos experimentales que reproducen las principales características del ictus en pacientes. Los investigadores del CIC biomaGUNE, mediante técnicas de imagen cerebral funcional como el PET (del inglés, Tomografía por emisión de positrones) han observado que los niveles de xCT están elevados en ratas sometidas a isquemia, lo cual subraya su importancia en el proceso de ictus. El CIC marGUNE, Centro de Investigación Cooperativa de Fabricación de Alto Rendimiento, trabaja en la línea de unión de materiales híbridos con el objetivo de desarrollar tecnologías que permitan obtener componentes de mayor valor añadido por unión de materiales disimilares. Como conclusión, se deriva que esta investigación desarrollada en animales de experimentación abre la puerta al desarrollo de nuevos tratamientos neuroprotectores, mediante fármacos dirigidos contra el intercambiador xCT con objeto de la isquemia cerebral. La Escuela Politécnica Superior de la Universidad de Mondragon, IK4-Lortek, IK4-Azterlan, IK4-TEkniker y Tecnalia colaboran en el marco de este Proyecto de investigación estratégica InProRet (Etorterk) coordinado por CIC marGUNE. El sector de la automoción es el principal beneficiado de esta tecnología, también aplicable a la aeronáutica, ya que su objetivo es reducir el peso de los vehículos y, en consecuencia, el consumo de combustible y los gases de efecto invernadero. La revista Journal of Clinical Investigation ha publicado los resultados de este estudio realizado por los investigadores María Domercq y Carlos Matute, del centro Achucarro y la UPV/EHU, y por Abraham Martín, investigador del CIC biomaGUNE de Donostia - San Sebastián. 57 Midatech Biogune liderará el proyecto NanoFacturing durante los próximos cuatro años La plataforma de fabricación escalable apoyará la amplia gama de productos nanofarmacéuticos que se están desarrollando en Europa La empresa vasca Midatech Biogune acaba de ser elegida para liderar el ambicioso proyecto europeo NanoFacturing para la producción de nanopartículas con la acreditación europea de GMP (Good Manufacturing Practice). El proyecto, que se desarrollará durante estos próximos cuatro años, cuenta con una asignación económica total de ocho millones de euros por parte de la Comisión Europea, en el marco del Programa Horizon 2020, de los que 3,4 millones de euros recaerán en la empresa vasca. NanoFacturing es una plataforma de fabricación escalable con el fin de apoyar la amplia gama de productos nanofarmacéuticos que se están desarrollando en Europa, incluyendo los propios medicamentos conjugados en condiciones GMP de Midatech Biogune. En este proyecto van a participar también empresas e institutos de diferentes países europeos: Centre for Process Innovation Limited (Reino Unido), Prochimia Surfaces (Polonia), Galchimia (España), el University College Dublin y la National University de Irlanda, el centro tecnológico Applus S.A. LGAI (España), IFOM, la Fondazione Istituto FIRC di Oncología Molecular (Italia), y la Ecole Polytechnique Federale de Lausanne (Suiza). Midatech Biogune es filial de la británica Midatech Pharma y se dedica desde el año 2006 al diseño, desarrollo, síntesis y producción de nanomedicinas. Se presenta i-Sare Microgid Gipuzkoa, primera micro red experimental operativa del Estado Esta infraestructura resultará clave para el desarrollo de soluciones avanzadas en torno a las redes eléctricas i-Sare Microgrid Gipuzkoa es la primera micro red experimental operativa del Estado con 400kW de potencia y servirá como banco de ensayo para desarrollar y experimentar la eficacia y viabilidad de diferentes tecnologías de generación y almacenamiento eléctrico. Su puesta en marcha servirá a las empresas vascas del sector como plataforma de desarrollo de nuevos productos, equipos y servicios. Las micro redes inteligentes son sistemas eléctricos que combinan equipos gestionados de forma coordinada, para poder ajustar al máximo la energía generada a la que se demanda en cada momento, buscando siempre la mayor eficiencia. El proyecto i-Sare está liderado por la Diputación Foral de Gipuzkoa, en colaboración con el Cluster de Electrónica, Informática y Telecomunicaciones del País Vasco (GAIA-Cluster TEIC), IK4 Research Alliance, Jema Energy, Cegasa Internacional, Electro TAZ, Ingesea, Oasa Transformadores, IK4-Cidetec e IK4-Tekniker. Además cuenta con Ceit-IK4, Fomento de San Sebastián e Iberdrola, como socios colaboradores. Para su puesta en marcha se han invertido 7 millones de euros cofinanciados por la Diputación Foral de Gipuzkoa, el Programa Operativo FEDER del País Vasco (2007-2013) y las empresas y centros tecnológicos que participan en el proyecto. EUSKADI EN BREVE El DIPC y el Instituto Max Planck de Óptica Cuántica firman un convenio de colaboración El acuerdo entre el centro donostiarra y el Instituto alemán busca el desarrollo de proyectos científicos innovadores que combinen líneas de investigación en las que ambas instituciones son líderes TECNALIA participa en el KIC RAW MATTERS DE H2020 Junto a la Corporación Mondragón, trabajará para abordar la problemática del suministro de materias primas en Europa, formando parte de un KIC (Knowledge and Innovation Communities), denominado KIC Raw MatTERS, que es una comunidad de excelencia e innovación orientada a aportar soluciones a los grandes retos sociales y económicos a los que se enfrenta la Unión Europea, referentes a la sostenibilidad y el suministro de materias primas. La participación en este ambicioso programa europeo supondrá la atracción a Euskadi de proyectos de I+D y de iniciativas empresariales muy relevantes que generarán nuevos empleos de alta cualificación alrededor de la sostenibilidad y las materias primas. Participan también la UPV/EHU y empresas como Indumental, Gerdau o Calcinor en un consorcio de 116 socios. El presidente del Donostia International Physics Center (DIPC), Pedro Miguel Etxenike, y el director del Instituto Max Planck de Óptica Cuántica (MPQ), Juan Ignacio Cirac, han firmado un acuerdo de colaboración entre ambos centros. Tanto el DIPC (Donostia) como el MPQ (Garching, Alemania) son centros de investigación fundamental en física, principalmente, en los campos de la física de la materia condensada y ciencia de materiales, y física atómica y óptica cuántica, respectivamente. Este convenio ratifica la colaboración ya existente entre los dos centros y se marca un nuevo objetivo: impulsar vías de colaboración y profundizar la relación entre los investigadores de los citados centros. De este modo, se pretende fomentar la contratación de personal investigador, el intercambio de profesionales, la organización de congresos, seminarios y otras actividades. Asimismo, el acuerdo busca el desarrollo de proyectos científicos innovadores que combinen líneas de investigación en las que el DIPC y el MPQ son ya líderes. El instituto alemán forma parte de la red de 83 centros de investigación de la Sociedad Max Planck, una sociedad científica con un presupuesto anual de unos 1.500 millones de euros, una plantilla de más de 21.000 empleados de los cuales unos 5.000 son científicos y que tiene en su haber a 17 premios Nobel. El proyecto Biopool, liderado por el Biobanco Vasco, calificado de ‘excelente’ por la Comisión Europea Destaca su impacto social y económico tras haber desarrollado un innovador buscador de muestras biológicas Tras dos años de trabajo, el proyecto Biopool ha obtenido la calificación de “excelente” por la Comisión Europea al haber demostrado la viabilidad de su puesta en marcha y su impacto social y económico. Biopool es una herramienta para investigadores de hospitales, universidades, centros de investigación y compañías biofarmacéuticas que les facilitará su trabajo para hallar muestras biológicas que les ayuden a avanzar en su investigación, acelerar descubrimientos y mejorar los tratamientos a los pacientes. BIOPOOL ha sido financiado por la Comisión Europea dentro del VII Programa Marco y liderado por el Biobanco Vasco (BIOEF) en colaboración con los Servicios de Anatomía Patológica de HU Cruces, H Galdakao, HU Basurto, HU Araba de Osakidetza y Onkologikoa, en el que también han participado otras seis entidades europeas, dos de ellos vascas, la corporación tecnológica Tecnalia y la empresa eMedica. BIOPOOL ha supuesto un salto tecnológico, ya que soluciona las barreras que conlleva trabajar con biobancos de diferentes países, donde se encuentran las muestras biológicas que los investigadores requieren para llevar a cabo los proyectos de investigación. El proyecto está financiado por la Comisión Europea bajo el Séptimo programa marco. El consorcio BIOPOOL une la amplia experiencia de siete socios: BIOEF (Biobanco Vasco), TECNALIA, eMedica, Cultek, EMC biobank, Pertimm, Brunel University, provenientes de cuatro países de la Unión Europea. 59 El CIC Energigune desarrolla unas nuevas espumas de carbono que permitirán una mayor conductividad eléctrica y térmica Este nuevo material destaca por sus aplicaciones que van desde el almacenamiento de energía hasta la aeronáutica, la construcción o microelectrónica Investigadores del Área de Almacenamiento Térmico del CIC Energigune están desarrollando unas nuevas espumas de carbono que, a pesar de nacer con una orientación inicial centrada en el almacenamiento de energía, presentan una serie de características especiales que pueden permitir su aplicación en múltiples sectores como construcción (paneles), el sector aeronáutico, automoción, microelectrónica o aplicaciones de filtrado, entre otras. Estas espumas, para las que el centro ubicado en el Parque Tecnológico de Álava ya ha solicitado una segunda patente, tienen una estructura macro y mesoporosa que implica una mayor superficie específica, una menor densidad y una mayor porosidad, lo que redunda en una mayor conductividad eléctrica y térmica, combinada con una mejor estabilidad y resistencia mecánica. CIC Energigune pretende proteger con estas patentes un proceso de fabricación que destaca por su estabilidad, simplicidad y por una reducción de coste muy relevante frente a los procesos existentes en la actualidad para la fabricación de espumas similares. Los responsables del centro de investigación sobre almacenamiento de energía están ahora en conversaciones con diferentes empresas vascas para buscar vías de colaboración que permitan incorporar estas nuevas espumas de carbono al mercado. El grupo de Neuropsicofarmacología de la UPV-EHU participa en el proyecto público-privado Spark El objetivo es desarrollar un fármaco que combata los déficits cognitivos de la esquizofrenia El grupo de Neuropsicofarmacología de la UPV/EHU se ha unido al consorcio liderado por la biotecnológica Iproteos e integrado por IRB Barcelona, el Centro de Regulación Genómica y la empresa Ascil-Biopharm en un proyecto denominado Spark. Esta iniciativa público-privada tiene como objetivo desarrollar la primera fase de desarrollo preclínico de un fármaco first-in-class que prevenga, frene la evolución y revierta los déficits cognitivos asociados a la esquizofrenia y otros trastornos mentales. En la actualidad no existe ningún fármaco para estas lesiones asociadas a la tercera enfermedad más incapacitante según la OMS. El grupo de Neuropsicofarmacología de la UPV/EHU es un referente internacional en el estudio de los sustratos biológicos de las enfermedades mentales y en el desarrollo de nuevos y más eficaces tratamientos para las mismas. Dentro del proyecto Spark, será el responsable de la ratificación de la actividad de las formulaciones mediante estudios en vivo en modelos animales de esquizofrenia. 3 5 días conectados a la ciencia www.cicnetwork.es a un click de la actualidad científica vasca A FIC NTÍ CIE LID AD ACT UA PREMIOS Premio BBVA de Biomedicina a la oncología personalizada del cáncer Hunter, Schlessinger y Sawyers galardonados por hacer posible el tratamiento personalizado de esta enfermedad El Premio Fundación BBVA Fronteras del Conocimiento en Biomedicina ha recaído en su séptima edición en Tony Hunter, director del Cancer Center del Salk Institute; Joseph Schlessinger, director del departamento de Farmacología de la Facultad de Medicina de la Universidad de Yale; y Charles Sawyers,director del programa de Oncología Humana y Patogénesis del Memorial Sloan Kettering CancerCenter de Nueva York, todos ubicados en EE.UU. La Fundación BBVA señala que los tres premiados han sido galardonados por “recorrer el camino que ha llevado al desarrollo de una nueva clase de eficaces fármacos contra el cáncer”. Estos nuevos medicamentos, aprobados a lo largo de la última década, se diferencian de la quimioterapia tradicional en que atacan específicamente los mecanismos que causan cada cáncer y, en consecuencia, son menos tóxicos para el paciente. De hecho, son los primeros que resultan del conocimiento profundo de la biología del cáncer, y no de pruebas genéricas de actividad de moléculas. El imatinib, aprobado en 2001, inauguró esta nueva clase de medicamentos convirtiendo la leucemia mieloide crónica, prácticamente letal hasta entonces, en una enfermedad casi siempre tratable. En la actualidad ya existen varias decenas de estos fármacos apodados ‘diana’, que se usan en más tipos de cáncer como pulmón, mama, melanoma y linfomas. ENERGÍA Muere Charles Townes, uno de los inventores del laser Esta desaparición se produce en plena celebración del Año Internacional de la Luz El El físico Charles Hard Townes, uno de los tres galardonados con el Premio Nobel de Física de 1964 –junto a los rusos Nikolay Basov y Alexander Prokhorov– por la invención del láser, falleció a finales de enero en la localidad californiana de Oakland. En julio de este año hubiera cumplido los 100 años. El científico fallecido es conocido por sus investigaciones sobre la teoría y la aplicación del máser (acrónimo de microwave amplification by stimulated emission of radiation), un amplificador de mi- croondas por la emisión estimulada de radiación), así como por sus trabajos en electrónica cuántica, donde conectaba los dispositivos máser y láser. El científico fue pionero en usar ambos para el campo de la astronomía. Está triste noticia se produjo sólo unos días después de que París acogiera la ceremonia de inauguración del Año Internacional de la Luz, una iniciativa auspiciada por la UNESCO y en la que participarán más de cien asociaciones científicas de 85 países. A lo largo de este año, charlas, exposiciones y eventos de todo tipo buscarán concienciar al público sobre la importancia de las investigaciones acerca del fenómeno luminoso. El Año Internacional de la Luz pretende también comunicar a la sociedad la importancias de la luz, y sus tecnologías asociadas, en el mundo actual en áreas tan importantes como la energía, la educación, la saludo la comunicación, entre otras. A lo largo de todo este año 2015, las entidades colaboradoras de la iniciativa organizarán exposiciones, charlas y proyectos educativos y divulgativos de todo tipo. Los organizadores han creado una página web www.light2015.org y, en español, www.luz2015.es donde se pueden consultar todas las actividades. Desde CICNetwork hemos querido también poner nuestro granito de arena a esta celebración dedicándole los artículos centrales de la revista. ACTUALIDAD CIENTÍFICA BIOCIENCIAS Una prótesis de médula casi natural E-Dura permite estimular la médula espinal durante meses sin fricciones ni daños, lo que favorece la recuperación del movimiento de las extremidades BIOMEDICINA MOVILIDAD Descubierto un nuevo antibiótico amplio, potente y capaz de evitar la resistencia bacteriana por espacio de décadas El calentamiento global puede obligar a las compañías aéreas a reducir el peso de los aviones y a aumentar los costes Abajo la resistencia ¿Aviones a dieta? ¿Por qué la teixobactina es un hito fundamental en la investigación biomédica? La razón fundamental es que este antibiótico, descubierto recientemente por un grupo internacional de investigadores, es capaz de hacer frente a una gran variedad de bacterias y no genera una resistencia inmediata. Aunque es difícil determinar si en un futuro las bacterias desarrollarán algún tipo de fortaleza, lo que está claro es que esto no sucederá hasta dentro de varias décadas. La teixobactina muestra una excelente actividad frente a las bacterias causantes de enfermedades como colitis, tuberculosis, conjuntivitis, meningitis y neumonía. El fármaco, cuya principal novedad es que elimina las bacterias atacando sus paredes celulares, se ha testado en ratones, sin efectos tóxicos adversos. La colocación de un dispositivo electroestimulador bajo la duramadre, la envoltura que protege el sistema nervioso, es una de las técnicas más eficientes para tratar las lesiones en la médula espinal. El problema es que estas prótesis son rígidas y rozan con el tejido nervioso cuando se mueve, lo que causa inflamación, cicatrices y rechazo a las pocas semanas. Un equipo internacional liderado desde la Escuela Politécnica Federal de Lausana, en Suiza, ha creado un dispositivo flexible y elástico que se puede implantar en la médula sin causar fricción ni daño en los tejidos. Bautizado como E-Dura, o ‘duramadre electrónica’, esta prótesis ha sido probada con éxito en ratones paralíticos. Tras un periodo de entrenamiento, los roedores tratados han conseguido volver a caminar. Además, transcurridos dos meses, no se ha detectado ningún rechazo. El reto es, ahora, testarlo en pacientes humanos, en los que el dispositivo podría funcionar hasta casi 10 años. Flexible como un tejido vivo y con una buena adaptación al sistema nervioso, E-Dura tiene un potencial enorme, ya que además de traumatismos y trastornos neurológicos, también podría aplicarse a tratamientos de la epilepsia, la enfermedad de Parkinson y la terapia contra el dolor. La mayor frecuencia de días de calor extremo, provocada por el cambio climático, puede obligar a restringir el peso de los aviones. A mayor temperatura del aire, se necesita mayor velocidad de despegue: el aire se torna menos denso y los aviones deben alcanzar velocidades más altas para generar la suficiente sustentación. Según las previsiones, este fenómeno puede afectar a grandes aeropuertos de todo el mundo. Un buen ejemplo es el de Phoenix (Estados Unidos), donde se calcula que el número de días al año en los que un Boeing 737 deberá perder 4,5 toneladas para poder despegar pasará de 0 a 20. Dicha reducción de 4,5 toneladas equivale aproximadamente al 25% del peso en pasajeros y carga. El problema se puede contrarrestar con pistas de despegue más largas, pero es una solución costosa y en muchos casos inviable, pues muchos aeropuertos no disponen de espacio para crecer. La alternativa es transportar menos pasajeros y carga por vuelo. Pero, claro, eso probablemente significará subir los precios. 63 INNOVACIÓN El coche que llega Está siempre conectado, el conductor es opcional, sigue ganando interactividad... y sigue teniendo cuatro ruedas La alianza entre automoción y tecnología, más estrecha que nunca, ofrece nuevas pistas para vislumbrar los automóbiles del futuro. Una de las citas más esperadas, el Consumer Electronics Show, celebrado recientemente en Las Vegas, ha presentado una nueva generación de vehículos con una autonomía casi total y un equipamiento orientado a conseguir una profunda interacción con los usuarios y el entorno. Fabricantes de vehículos y empresas tecnológicas coinciden en que la idea del momento es la mejora de la movilidad y de la experiencia del viaje. Y que la clave es la conectividad, no solo vía dispositivos móviles sino también a través de nuevos wearables como los relojes inteligentes, con el objeto de facilitar funciones de conducción, localización y seguridad. En la cuestión de la autonomía, todos sostienen que tecnológicamente ya es posible pero que hay que avanzar gradualmente para disipar las dudas y temores de los usuarios. ENERGÍA La carrera fotovoltaica se anima Una nueva generación de cristal líquido puede mejorar las células fotovoltaicas y, por tanto, la competitividad de la energía solar En la carrera por desarrollar materiales más eficientes para fabricar células fotovoltaicas, un nuevo tipo de cristal líquido de fase nemática puede estar a punto de adelantar a sus competidores y convertirse en un componente de referencia. Descubierto por investigadores de la Universidad de Melbourne (Australia), se caracteriza por sus excelentes propiedades electrónicas, lo que puede estimular la fabricación de células que contribuyan a una disminución de los costes de producción de la energía solar. El cristal líquido nemático es una solución orgánica que aúna la eficiencia con la facilidad de impresión, por lo que se sitúa claramente por encima de los modelos basados en silicio, muy extendidos. La flexibilidad del nuevo componente permite su encaje en casi cualquier superficie. Además, abre la puerta a nuevos desarrollos innovadores en otros segmentos, como las pantallas LCD. BIOCIENCIAS Tests en plástico de burbuja El popular plástico de burbujas es una alternativa muy barata a las microplacas para realizar tests de laboratorio Alta disponibilidad, coste bajo, peso mínimo, variedad de tamaños y superficie interior totalmente estéril: estas son las principales características que pueden convertir al popular plástico de burbujas para embalar en una buena alternativa a las microplacas de laboratorio, los típicos utensilios con múltiples pocillos que se utilizan como pequeños tubos de ensayo. TECNOLOGÍA Los ordenadores flexibles, más cerca Los últimos desarrollos en transistores orgánicos anticipan que en pocos años podrían popularizarse los ordenadores flexibles Cada microplaca de laboratorio tiene un precio de 1 a 5 euros, así que al cabo del año pueden sumar una partida considerable para los laboratorios, especialmente en épocas de recortes como la actual. Partiendo de este hecho, investigadores del Wyss Institute de la Universidad de Harvard iniciaron hace un tiempo la búsqueda de opciones más eficientes. “Nos atrae la idea de usar materiales existentes, ir más allá de su función inicial y adaptarlos para solventar problemas nuevos”, comenta George Whitesides, del Wyss Institute, quien añade que el plástico de burbujas es especialmente idóneo para tests visuales, como reacciones que cambian el color de una muestra. ¿Cómo se introducen las sustancias en la burbuja y se vuelve a cerrar la cavidad? Es tan fácil como usar una jeringa y esmalte endurecedor para las uñas. En unos diez años podrían llegar al mercado pantallas de ordenador tan flexibles y delgadas como una hoja de papel, y mucho más rápidas y eficientes que las pantallas corrientes actuales. Esta es la conclusión a la que ha llegado el Instituto Japonés de Ciencias de los Materiales tras analizar los últimos avances en el desarrollo de transistores de efecto de campo orgánico, o OFET, una tecnología descubierta hace algo más de una década. Las principales propiedades de este tipo de transistores son la capacidad de emitir y recibir luz y la amplificación de señales electrónicas débiles. Los transistores orgánicos podrían abrir otras fronteras para los dispositivos fotónicos y electrónicos, más allá de las pantallas. Por ejemplo, en el desarrollo de la llamada “memoria plástica” o en sistema optoelectrónicos de tecnología láser. La carrera está abierta, y con una adecuada cooperación interdisciplinar entre químicos orgánicos y físicos de materiales pronto tendremos al alcance el anhelado ordenador flexible. ACTUALIDAD CIENTÍFICA MEDICINA E. coli contra el Parkinson La controvertida fama del E. coli puede mejorar: al parecer, la célebre bacteria intestinal permitiría tratar el Parkinson Cuando oímos el término ‘E. coli’ solemos pensar en intoxicaciones alimentarias y cierre de instalaciones públicas, pero la conocida bacteria intestinal tiene una cara más amable y beneficiosa. Según una reciente investigación de la Universidad de Michigan, el E. coli podría ayudar decisivamente a tratar una de las principales enfermedades neurodegenerativas, el Parkinson. MATERIALES Una imitación a tamaño microscópico FABRICACIÓN El nailon se reinventa en verde Combinando burbujas de ozono y rayos ultravioleta, la fabricación del popular tejido sintético estrena una etapa de mayor respeto ambiental Hasta ahora, el nailon se ha elaborado normalmente a partir de ácido adípico, un compuesto orgánico que se obtiene haciendo reaccionar moléculas de carbono con ácido nítrico corrosivo. Esta preparación emite óxido nitroso, que puede resultar perjudicial para la capa de ozono. Si se cuantfica molécula por molécula, el óxido nitroso tiene cerca de 300 veces más capacidad de calentamiento que el dióxido de carbono. La actividad humana produce anualmente más de ocho millones de toneladas métricas de óxido nitroso, de las cuales hasta el 8% procede de la fabricación de nailon. La clave estriba en que una de las proteínas contenidas en el E. coli inhibe la acumulación de fibras de amiloides, que es una de las características fundamentales del Parkinson. Los amiloides son sustancias formadas en el tejido cerebral por la agregación de proteínas. En condiciones normales son beneficiosas a la función celular, pero cuando se forman en el lugar o momento equivocado pueden dañar el tejido y causar la muerte celular. A grandes rasgos, el E. coli hace que el amiloide se forme en la pared exterior de la célula, lo que no resulta tóxico. El nácar inspira un nanocompuesto artificial con propiedades excepcionales que podría destinarse a múltiples usos Un ámbito clave de la investigación actual de materiales es desarrollar compuestos que logren, o incluso sobrepasen, las características presentes en la naturaleza. En esta línea, El DWI-Instituto de Materiales Interactivos de Leibniz (Alemania) ha conseguido desarrollar un nanocompuesto inspirado en el nácar que combina propiedades mecánicas excepcionales con una transparencia cristalina y un alto efecto de barrera ignífuga y de gas. Con el objetivo de desarrollar procesos con menor huella ambiental, investigadores de la Universidad Nacional Tsing Hua, en Taiwan, han conseguido reemplazar el ácido nítrico con burbujas de ozono (O3) y luz ultravioleta. La luz ultravioleta rompe el ozono en O2 y un átomo de oxígeno altamente reactivo. A continuación, los átomos de oxígeno libres se adhieren a una molécula de carbono hexagonal, el ciclohexano, hasta que el anillo se abre y forma ácido adípico. Al no utilizar ácido nítrico, se evita la consiguiente emisión de gases de efecto invernadero. A una escala microscópica, la estructura del compuesto parece una resistente pared de ladrillo. Las plaquetas de carbonato cálcico son como ladrillos que cargan y refuerzan, mientras las capas alternas, de biopolímero blando, actuando como un “mortero” que absorbe y disipa la energía. El resultado es un material ligero, firme y resistente, que podría destinarse a múltiples usos, no solo como elemento estructural, sino también en aplicaciones de almacenamiento de gas y de envasado de alimentos, y en encapsulación de dispositivos orgánicos sensibles al oxígeno. 65 ES STR ILU OS FIC NTÍ CIE Galileo Galilei: en busca de la evidencia Santiago Pérez Hoyos Hace algo más de 450 años, el 15 de febrero de 1564, nacía en la ciudad de Pisa Galileo Galilei, el que habría de ser precursor de la observación telescópica, paladín del sistema copernicano y finalmente mártir de la injerencia religiosa en el mundo de la evidencia científica. Nacido a caballo del Renacimiento y la Edad Media, fue también en muchos sentidos símbolo de ambas épocas. Contradictorio, por tanto, apasionado, orgulloso pero también pragmático hasta la negación de sus principios. Cobarde o cauto, y al mismo tiempo audaz en su discurso. Siempre pendiente de la financiación necesaria para la independencia de sus estudios y a la búsqueda continua de la libertad para abordar los temas que realmente le interesaban; pero al mismo tiempo consciente de la necesidad de conectar la ciencia básica, la investigación pura, con la ciencia aplicada y la tecnología que habría de conseguir el bienestar de sus conciudadanos y la satisfacción de sus benefactores. Más allá del apócrifo “Eppur si muove” con el que tan a menudo se le simplifica, sigue siendo Galileo una figura de referencia para los científicos, docentes e investigadores actuales. Más humano quizá que los Newton o Einstein fue en todo caso un auténtico genio intuitivo, cuya figura merece ser revisada continuamente, tanto por lo influyente como por lo inspiradora. El telescopio Para todos los astrónomos y para aquellos que disfrutamos de la observación del cielo nocturno, Galileo merecería haber pasado a la historia sólo por el uso que dio a un invención reciente que cayó en sus manos. Hablamos desde luego del telescopio, que no recibiría esa denominación hasta años más tarde por la sugerencia del matemático griego Giovanni Demisiani. Aunque la controversia persiste, posiblemente a finales del siglo XVI había en Europa diversos artesanos que estaban modificando y combinando lentes con el fin de producir imágenes ampliadas de objetos lejanos. Hans Lippershey en Alemania, Zacharias Janssen en Holanda o Joan Roget en Cataluña podrían dis- putarse el honor de haber sido los auténticos inventores del instrumento, pero fue sin duda Galileo quien le aportó una dimensión revolucionaria cuando en el año 1609 lo utilizó para escrutar los cielos. “Galileo era consciente de la necesidad de conectar la ciencia básica, la investigación pura, con la ciencia aplicada y la tecnología” Podríamos decir que el papel de Galileo con respecto al nuevo aparato fue triple. Por un lado, desde el punto de vista tecnológico, fue capaz de dotar al instrumento de una capacidad ampliadora inédita y de una perfección óptica indiscutible para la época. Esta innovación tecnológica fue durante décadas la carta de presentación del científico, el regalo que utilizaba para agradar a los poderosos cuya protección y apoyo económico precisaba. Esto incluye al obispo Barberini, quien habría de convertirse en Urbano VIII y fuera artífice final de la desgracia de nuestro astrónomo. En segundo lugar, supo también Galileo hallar una utilidad militar aplicada al telescopio. Un uso del agrado de sus benefactores de quienes obtendría admiración sí, pero también el apoyo económico que precisaba. Capaz gracias a sus contactos de presentarse ante la república de Venecia como el inventor original de un aparato que ya circulaba por las ciudades italianas, nadie puede negarle el mérito de ser capaz de hallarle un uso práctico y convencer del mismo a las autoridades. CIENTÍFICOS ILUSTRES - Galileo Galilei: en busca de la evidencia Finalmente, nadie excepto Galileo tuvo la genialidad de apuntar su vista a los cielos con ese nuevo artilugio y supo interpretar y extraer las consecuencias lógicas de sus observaciones. Gracias a ellas descubrió los cuatro grandes satélites de Júpiter, que ahora llamamos galileanos pero que él quiso bautizar como mediceos, en busca, una vez más, de la protección de la dinastía Médicis en Florencia, cuyo apoyo anhelaba. El movimiento orbital ponía de relieve la inconsistencia del modelo ptolemaico para explicar la constitución del Sistema Solar. Esto, como recoge Thomas Khun en su famoso “Estructura de las Revoluciones Científicas”, hacía trizas una astronomía cada vez más difícil de explicar y sostener ante la avalancha de nuevas observaciones y explicaciones de las mismas, como por ejemplo las realizadas por Johannes Kepler, coetáneo de Galileo. Unido a esto a la constatación de las fases de Venus, se ponía en entredicho el conocimiento sancionado por las autoridades eclesiásticas, lo que supondría al cabo la condena de Galileo. La imperfección de los objetos celestes supuso también un duro golpe filosófico al mundo medieval. Empezando por la Luna, cuyos montes y mares implicaban una constitución mucho más terrenal de lo que se pretendía. Y siguiendo por el Sol, cuyas manchas sostuvo Galileo que eran un fenómeno superficial en el astro, acertando una vez más. Pero no pararon ahí las observaciones astronómicas de Galileo. Con un sencillo movimiento pudo terminar finalmente con la polémica acerca del origen de la franja brillante en el cielo nocturno, la llamada Vía Láctea. Descubrió así que ésta estaba formada por multitud de estrellas más pequeñas, imposibles de discernir a simple vista. También las Pléyades o constelaciones como la de Orión, contaban con muchas más estrellas, más débiles, de las que los clásicos habían consignado. Barruntó acertadamente que con mayores telescopios sería posible por tanto incrementar ad infinitum el número de astros en el cielo. Todas estas ideas quedaron convenientemente recogidas en su Sidereus Nuncius (Gaceta Sideral) un año más tarde. Si, orgulloso como era, Galileo hubiera podido conocer los límites de la ciencia que acababa de inaugurar se habría sentido tremendamente satisfecho. Fue realmente el padre de la astronomía observacional tal y como la entendemos en la actualidad. Todos los astrónomos actuales tenemos una profunda deuda con él. Habría sido posible devolverle ese favor mostrándole la verdadera naturaleza de Saturno, cuyos anillos y su cambiante aspecto le resultaron siempre un misterio que lo intrigaba profundamente. Nuestro pequeño homenaje se realizó cuatrocientos años más tarde, cuando en 2009 celebramos el Año Internacional de la Astronomía en honor a sus observaciones. “El movimiento orbital ponía de relieve la inconsistencia del modelo ptolemaico para explicar la constitución del Sistema Solar” Retrato de Galileo Galilei realizado por Justus Sustermans en 1636 durante el arresto de Galileo. Esta es una imagen de importante carga simbólica que muestra el respeto que aún se tenía por el científico condenado. Aunque ya en un estado físico deplorable, Galileo preserva la intensidad e inteligencia de su mirada, magníficamente capturada por el pintor de los Medici. Galeria degli Uffizzi. commons.wikimedia.org estudio musical, como por su escepticismo. Galileo fue de hecho un consumado tañedor de laúd hasta el final de sus días y las teorías musicales de su padre se reflejaron múltiples veces en sus escritos, así como su estilo clásico en forma de diálogos a la hora de exponer sus ideas. La polémica Hoy hace aproximadamente 400 años, allá por 1615, tenía lugar el primer proceso de la Iglesia Católica contra el científico. Una vez más, resulta complicado encontrar una sola causa para esta inquina. Desde luego, la primera y fundamental era el inmovilismo de una iglesia acantonada en la Contrarreforma tras el cisma luterano, que la condujo a unas posiciones de intransigencia históricas. Pero existen también otras causas, como el carácter expansivo y polemista del propio Galileo que nunca desaprovechó la ocasión de humillar con su brillante retórica a todos aquellos que le disputaban la primacía en las observaciones o su interpretación. También podemos destacar el ocaso de las ciudades estado italianas, arrastradas por el lastre que supuso precisamente el despótico ejercicio de la autoridad por parte de Roma y la progresiva pérdida de influencia de la liberal Venecia, que habría podido ser un puerto seguro y refugio permanente para un ambicioso Galileo quien prefirió la incierta protección de la familia Médicis en Florencia cuando comenzó a destacar en el mundo científico de la época. Resulta irónico que Galileo estuviera a punto de convertirse en monje en el convento de Vallombrosa de Florencia. Según cuenta Reston en su biografía del genio italiano, fue su padre Vincenzo quien, disgustado ante el cariz que estaba tomando la educación de su hijo, decidió llevárselo mediante argucias y darle una educación acorde a su capacidad intelectual. La figura de Vincenzo fue básica para Galileo, tanto por el carácter analítico de su padre, aunque orientado al Realmente, la cantidad de evidencias que Galileo venía acumulando contra el sistema ptolemaico hacía muy difícil seguir sosteniéndolo. El pisano se mostraba tan cauto frente a la iglesia oficial como avasallador contra sus mensajeros individuales, personificados en Ludovico delle Colombe o el jesuita Christoph Scheiner. Estos fueron alimentando un poso de envidia y odio hacia el científico que a lo largo de décadas iría madurando para terminar con la condena Qué investigador actual no admirará la capacidad de Galileo para innovar tecnológicamente, encontrar usos prácticos para vender su invento y aún hacer ciencia con él. Conviene recordar la admiración del pisano por los artesanos y su trabajo manual, del cual siempre estuvo pendiente y supo rodearse de los más hábiles para inspirarse en su trabajo y tratar de encontrar soluciones prácticas a los problemas que les acechaban. Consciente de ello, Bertolt Brecht personalizó al artesano, pulidor de lentes, en el personaje de Federzoni en su monumental “Vida de Galileo”. 67 jantes presentes mientras que en público condenan las teorías del científico. La salud de Galileo empieza a resentirse y en plena vejez, aquejado de problemas oculares y enormes dolores por la artritis, aumentados por su hipocondría, se encuentra de pronto inmerso en un proceso en el que la amenaza de la muerte y la tortura es patente. Las difíciles relaciones de Galileo con los jesuitas, en aquel momento en la cúspide de su poder político en la ciudad de Roma, ayudan a germinar las semillas que se plantaron dos décadas antes. En su “Diálogo sobre los principales sistemas del mundo”, Galileo se atreve a ir más lejos que nunca e incluso busca explicaciones teológicas para sus posiciones científicas, en un intento sincero de compaginar su fe, auténtica por lo que sabemos, con lo que la evidencia empírica demuestra. Este fue probablemente su mayor error. En los diálogos, los personajes Salviati y Sagredo abruman al pobre Simplicio con evidencias y argumentos irrefutables acerca del sistema copernicano. Intrigantes profesionales hacen creer a Urbano VIII que el personaje de Simplicio se inspira en él mismo, lo que dispara su paranoia hasta la crueldad hacia su hasta entonces amigo. De nada sirve la sanción de los censores eclesiásticos a la publicación, ni la introducción y epílogo que las propias autoridades redactan para abrir y cerrar el tratado. El peso de los argumentos y las evidencias es tan impresionante, que convierten esas modificaciones en una auténtica burla para cualquier persona inteligente. Y eso no pasa desapercibido a ojos de los jesuitas. Entre los muchos inventos de Galileo podría destacarse el compás militar, inventado alrededor de 1597 y popularizado con la publicación de su manual en 1606. Este aparentemente sencillo aparato permitía realizar con facilidad complicadas operaciones aritméticas como calcular raíces cuadradas y cúbicas, entre otras. Studies in the History and Method of Science, vol II, Clarendon Press 1921, Charles Singer. expresa por parte de quien Galileo menos habría esperado. Muchas evidencias históricas nos muestran a Galileo incapaz en ocasiones de percibir el riesgo y la reprobación, a pesar de que los hechos, vistos con nuestra perspectiva, resultaban claramente alarmantes. La primera refriega se cerró en 1616 con una amonestación verbal y escrita por parte del cardenal Bellarmino, el mismo que condenó a Giordano Bruno al fuego de los herejes en 1600. Parece realmente que Galileo despertaba mucha admiración y respeto entre las autoridades eclesiásticas, quienes, en muchos casos, apoyaban activamente las tesis de Galileo y lo defendían. El propio Maffeo Barberini habría de escribir su adulador poema Laudatio Perniciosa en honor del astrónomo. Así pues, Bellarmino indicó finalmente a Galileo que la tesis copernicana no debía enseñarse y tenía que ser tratada desde un punto de vista puramente hipotético. Los términos no fueron realmente claros y nuestro héroe prefirió sentirse apoyado por las autoridades que reflexionar severamente sobre los condicionantes que se le venían imponiendo. “El cardenal Bellarmino indicó finalmente a Galileo que la tesis copernicana no debía enseñarse y tenía que ser tratada desde un punto de vista puramente hipotético” Una serie de señales externas, como el apoyo recibido por múltiples estudiosos de los países protestantes, habrían de inducir a Galileo hacia posiciones más audaces. Las señales parecían óptimas: Barberini, amante de las ciencias, se había convertido en Urbano VIII. Pero Barberini no fue el papa que uno podía esperar del obispo que fue. Autoritario, cruel, inseguro hasta la paranoia y con una fe en la astrología que le llevaba a tomar decisiones de enorme calado político bajo los auspicios más peregrinos, Galileo fue siempre incapaz de ver en Urbano VIII más allá de su antiguo amigo Barberini. El inicio del proceso inquisitorial a comienzos de la década de 1630 era imparable. Fue acogido con escepticismo inicialmente por Galileo. Acaba de construir el microscopio y sigue agasajando a los príncipes de la Iglesia con sus mejores telescopios, quienes hipócritamente reciben en privado y disfrutan de seme- “Busca explicaciones teológicas para sus posiciones científicas, en un intento sincero de compaginar su fe con lo que la evidencia empírica demuestra” Galileo es procesado y amenazado con la tortura física. Era Galileo una persona de carácter fuertemente hedonista, muy inclinado hacia los placeres carnales y con gran miedo al sufrimiento físico y la enfermedad. Se debate al principio entre mantenerse fiel a sus principios o renegar de ellos públicamente para poder mantener su vida y continuar estudiando el mundo que le rodea. No tarda en optar por la segunda opción y se desdice en 1633 ante la incredulidad de algunos de sus admiradores como Giuseppe Baretti, quien añadió el apócrifo “Eppur si muove” que casi con completa seguridad no fue pronunciado públicamente por Galileo. La figura más preclara e inteligente de comienzos del siglo XVII acababa de ser humillada por la Iglesia Católica en un ejercicio de despotismo que no sería reparado hasta mediados del siglo XX, cuando el proceso a Galileo fue revisado por orden del papa Juan Pablo II. Para muchos científicos, ni siquiera esto fue suficiente reparación del tremendo daño contra la razón y el conocimiento que supuso la condena. La siguiente década ve a un Galileo derrotado, en un claro declive físico. Pero aún es una mente brillante y, a espaldas de la Iglesia oficial, incluso a veces protegido por algunos obispos y nobles cristianos, va explorando tierras más seguras de la ciencia hasta formular su “Discursos sobre dos nuevas ciencias” poco antes de su muerte. Estos serían en buena medida los hombros de los gigantes sobre los que Newton diría haberse subido años más tarde. Galileo fallece en 1642 a los 77 años de edad visto a los ojos tanto de los católicos como de los protestantes como un mártir de la razón frente al oscurantismo religioso. El científico experimental Con todo lo expuesto anteriormente resulta fácil perder la perspectiva sobre la figura de Galileo. Más allá de astrónomo y mártir de la ciencia, él fue matemático en primer lugar y después un gran científico experimental, para el que la prueba de los sentidos resultaba la comprobación definitiva, más allá de lo que los dogmas establecidos enseñaran. Antes de su descubrimiento de los cielos a través del anteojo astronómico, Galileo destacó por su habilidad en las matemáticas. A pesar de que su padre habría querido hacer de él un médico de bien, la inclinación de Galileo le condujo a las aparentemente poco prácticas matemáticas. Sin embargo, su genio quedó CIENTÍFICOS ILUSTRES - Galileo Galilei: en busca de la evidencia Diversos dibujos de Galileo mostrando la Luna con sus accidentes orográficos, las manchas solares o las estrellas que escaparon de la aguda vista de los astrónomos anteriores. Imágenes tomadas de Sidereus Nuncius y de las cartas de Galilelo Galilei. Wikimedia Commons patente ya en los primeros años de estudiante, cuando inventa un artilugio para medir el pulso de los pacientes empleando un péndulo. Este invento le permite encontrar algo de comodidad y, una vez más, le da el margen suficiente para poder dedicarse a las matemáticas de lleno, llegando a ocupar la cátedra de la universidad de Pisa, no sin antes haber terminado un tratado sobre el cálculo de los centros de gravedad de los sólidos. “Galileo afirma que el libro de la naturaleza está escrito en el lenguaje de las matemáticas, sin las cuales es como girar vanamente en un laberinto” De aquellos tiempos es también la anécdota relacionada con la caída libre de los cuerpos, supuestamente realizada desde la torre de Pisa. Lo cierto es que Galileo sostuvo acertadamente que la aceleración de los cuerpos en caída es universal en ausencia de otras fuerzas. De hecho, al final de sus días, continuó estudiando el movimiento de los cuerpos dando lugar a la ley del movimiento, actualmente conocida como primera ley de Newton. Dentro de ese triángulo científico que forman en Galileo las matemáticas, la física y la ciencia experimental supo ver una profunda relación. En una de sus citas más recordadas, afirma que el libro de la naturaleza está escrito en el lenguaje de las matemáticas, sin las cuales “es como girar vanamente en un laberinto”. Lo cierto es que Galileo proporcionaba a la geometría el lugar superior dentro de las matemáticas, en lugar del cálculo que usamos comúnmente en el mundo científico actual. Este mensaje de Galileo, que la ciencia debe estar apoyada en la experiencia y expresada en la matemática, es perfectamente universal y válida en los tiempos que corren. Hemos visto que el genial Galileo es por tanto una buena fuente de inspiración para los científicos del siglo XXI. Más allá de por sus descubrimientos, merece ser recordado por la insistencia con la que buscó la aplicación práctica, sin amar menos por ello los fundamentos teóricos del universo que con tanta dedicación estudiaba. Consciente por tanto de la sociedad que le rodeaba y de sus dificultades, no percibía como un menosprecio relacionarse con artesanos y trabajadores manuales, ni una rebaja buscar la financiación y seguridad que los poderosos podían darle. Galileo comenzó una avalancha de pensamiento crítico y de libertad de razonamiento que continuo por el Renacimiento y la Ilustración para llegara a la auténtica revolución científica que se desencadenó en el siglo XX y de la cual aún estamos recogiendo sus frutos. Bibliografía Noticiero Sideral, Galileo Galilei. Traducción del latín a partir de la edición de 1610. MUNCYT, Madrid, 2010. Diálogo sobre los dos máximos sistemas del mundo ptolemaico y copernicano, Galileo Galilei. Alianza editorial, Madrid, 1995. Diálogos acerca de dos nuevas ciencias, Galileo Galilei. Editorial Losada, Buenos Aires, 2004. La vida de Galileo, Bertolt Brecht. Ediciones Losange. Buenos Aires, 1956 Galileo. El genio y el hombre, James Reston Jr. Ediciones B, Madrid, 1999. La estructura de las revoluciones científicas, Thomas Khun. Editorial Fondo de Cultura Económica de España, Madrid, 2006. 69 La física de Galileo Galileo ha sido llamado en ocasiones “el primer físico”. ¿Por qué? Esencialmente porque el pisano confió siempre en sus sentido antes que en las argumentaciones, especialmente si éstas no eran suyas y debían aceptarse como dogmas. Su capacidad de observación, unida a una mentalidad profundamente analítica y, posiblemente, a su personalidad orgullosa e iconoclasta, le permitió plantar cara a la ciencia de Aristóteles, que permanecía como la referencia fundamental para los académicos de la época. Para Aristóteles, era la naturaleza de las cosas la propiedad fundamental que gobernaba su movimiento. Galileo no ve esa conexión y refiere en sus escritos ejemplos de cuerpos de naturaleza (o composición) distinta pero que se ven sometidas a las mismas leyes. Esta ruptura se manifiesta tanto en la ley de la inercia, como en las diversas aplicaciones del empuje de Arquímedes que le enfrentaron a científicos de la época. Sin embargo, es la metodología de la observación la que proporciona a Galileo el golpe definitivo a todas las teorías anteriores. Pongamos por caso el análisis de la caída de los cuerpos. Galileo sostuvo que la velocidad de caída de objetos que parten del reposo no depende de la masa o forma de los mismos, sino que depende exclusivamente del tiempo transcurrido desde el comienzo de la caída. La tradición popular sostiene que, para confrontar su teoría con la realidad, Galileo arrojó diferentes objetos desde la torre de Pisa. Esta historia es probablemente una fábula basada En el experimento apócrifo de la Torre de Pisa, se arrojan dos objetos: uno pesado (azul) y otro ligero (rojo). Aristóen las experiencias de Simon Stevin, un experimenteles habría predicho una velocidad constante y dependiente de su masa (líneas rectas azul y roja), mientras que la tador anterior, pero recoge bien la forma de trabateoría de Galileo mostraría una dependencia con el cuadrado del tiempo e igual para ambos objetos, al menos en jar de Galileo. Sin embargo, en uno de sus ensayos ausencia de otras fuerzas. sobre el movimiento sostuvo la siguiente paradoja acerca del movimiento aristotélico. ¿Qué ocurriría, se preguntaba, si uniéramos dos cuerpos de distinta masa con una cuerda? ¿Caerían a la velocidad del más pesado? ¿O más rápido? ¿No frenaría el objeto más ligero al más pesado por su menor velocidad? Aplicando un sentido común apabullante, Galileo era capaz de poner de manifiesto las debilidades lógicas del planteamiento clásico, llegando a la conclusión de que, en el vacío, y en ausencia de otras fuerzas, la lana y el plomo caerían exactamente a la misma velocidad. Dejando a un lado el experimento de la torre de Pisa, lo que sí hizo Galileo fue experimentar sobre un plano inclinado y tomar cuidadosas medidas sobre el movimiento de objetos que deslizaban sobre él. Comienza midiendo el tiempo cantando canciones de pulso conocido y pronto desarrolla un reloj de agua más preciso que le permita determinar el paso del tiempo. Con todo ello, encuentra que la distancia recorrida es proporcional al cuadrado del tiempo. Esta idea, al igual que su ley de la inercia, la concibe como universal y es capaz de vislumbrar la presencia de fuerzas desconocidas tales como rozamientos entre superficies sólidas, viscosidad para el movimiento en fluidos, etcétera, que pueden apartar las observaciones de los resultados esperados cuando no son tenidas en cuenta. Este tipo de estudios puramente académicos tienen en Galileo una continuación natural en el mundo práctico de las aplicaciones militares. Para el estudio del tiro parabólico, decide descomponer el movimiento en dos componentes individuales. Mientras que la componente horizontal del movimiento se sujeta a su ley de la inercia, la componente vertical es la caída libre de un cuerpo. Con esa idea aparentemente sencilla, mejora notablemente las tablas militares de la época. Enfocando el Universo de manera mecanicista, Galileo habilitó la experimentación para la filosofía natural, permitiendo la creación, no sólo de la física, sino de todas las demás ciencias experimentales. De esta manera, en lugar de un filósofo alejado de la realidad, el físico se convierte en un científico con las manos puestas sobre las naturaleza, tal y como lo seguimos viendo hoy en día. www.cicnetwork.es
© Copyright 2024