Descargar - CIC Network

nº15
marzo 2015
CIENCIA Y TECNOLOGÍA
Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco
Juan Antonio Zufiría
Aurkene Alzua-Sorzabal entrevista
al Director General de IBM Global
Technology Servicies Europa
Euskadi-Aquitania
Mesa de ideas
Visiones y reflexiones sobre
la investigación desde los dos
territorios
El año
de la luz
Artículos de Ricardo Díez Muiño y
Javier Aizpurua, Rubén Esteban,
Pablo Alonso y Rainer Hillenbrand
Contenidos
Editorial 04
Jesús María Goiri, director general de CIC Energigune, escribe
sobre la nueva etapa de CICNetwork
Diálogos científicos 06
Aurkene Alzua-Sorzabal entrevista a Juan Antonio Zufiría,
Director General de IBM Global Technology Servicies Europa
Ciencia en abierto 12
Alex Fernández Muerza, periodista de divulgación científica,
escribe sobre divulgación científica en internet e impresoras 3D,
¿la tercera revolución industrial?
Investigación en vivo 20
Mer Licht! artículo de Ricardo Díez Muiño y Nanoóptica:
controlando la luz en la nanoescala de Javier Aizpurua, Ruben
Esteban, Pablo Alonso y Rainer Hillenbrand
Entorno CIC 33
Mesa de ideas
Visiones y reflexiones sobre la investigación desde Euskadi y
Aquitania con Igor Campillo, Helene Jacquet, Jacques Tortos,
Fernando Plazaola, Eric Papon y Antonio Porro.
Modera: Joseba Jauregizar
Artículos de
Silvia Alonso-de Castro, Emmanuel Ruggiero y Luca Salassa,
Josu Martínez-Perdiguero, Deitze Otaduy, Aritz Retolaza y Santos
Merino, Josu Eguia. L. Uriarte
y A. Lamikiz
Científicos ilustres 66
Santiago Pérez Hoyos, Galileo Galilei: en busca de la evidencia
Nueva etapa, nueva luz
Desde los inicios de creación de los centros de investigación cooperativa,
en particular, desde el primero de los creados (CIC Biogune), se ha venido
publicando la revista CIC Network con una periodicidad bianual. Se cumplen
ahora diez años desde que se creó el primer centro de investigación cooperativa, el CIC Biogune, y nueve años desde que viera la luz el primer número
de CICNetwork. Desde entonces, otros centros se han ido sumando a esta
red, enriqueciéndola y aportando esfuerzo e ilusión a cada nuevo número de
la revista. Las catorce ediciones publicadas han cumplido excepcionalmente
con los objetivos de rigor y calidad científicos que exigieron, desde el principio, los editores de la revista; el despliegue de primeras figuras de la ciencia
mundial han ocupado la públicación en todos sus números. Ahora, después
de nueve años, toca un cambio conceptual que está muy relacionado con la
incorporación de lo digital al modo de plantear la publicación, y todo ello, sin
abandonar el vehículo papel; además es prioritario mantener el nivel anterior de rigor y calidad científicos.
nuevas secciones y un diseño atractivo que nos permita acercar, aún más,
nuestro trabajo a la sociedad.
Este nuevo periodo de la revista pretende acercar la misma a un público
objetivo no estrictamente académico y, al mismo tiempo, procurar que su
lectura apasione al colectivo investigador, en principio, el de nuestro entorno. Queremos también que la revista sea un canal para a dar a conocer al
exterior los logros y ambiciones del conjunto de los CIC y una plataforma de
entrada para proyectos, investigaciones y noticias de primera relevancia asociadas al conjunto de la RVCTI y a los propósitos del nuevo Decreto. Comprobaréis que, desde ahora, nuestro espacio digital cambia sustancialmente con
el objetivo de aumentar el número de visitas con una web más actualizada,
El reto, en este período de presidencia rotatoria de CIC Energigune, será el de
mantener a toda costa el rigor y calidad de lo anterior y ampliar el abanico de
interés a un colectivo investigador más amplio. Lo que si podemos contrastar
como seguro es que: sólo aquellas regiones que apuesten de manera masiva
por crear centros de conocimiento e investigación sobrevivirán como ofertas
económicas innovadoras; lo contrario será ciertamente un camino rápido a
la decadencia y marginalidad.
Jesús María Goiri,
Director General de CIC Energigune
Una idea ambiciosa a largo plazo sería convertir esta publicación en un altavoz para multiplicar el conocimiento de lo que hacemos en Euskadi en materia de I+D+I. En primer lugar, dentro de la propia Red y también en el exterior; pues es indudable que la consolidación de Euskadi como un referente
industrial y de innovación sólo podría realizarse mediante un sector de I+D+I
volcado a Euskadi y al mundo y dotado de unos presupuestos adecuados.
Este nuevo número cuenta como tema principal el Año Internacional de la
Luz y entre los interesantes artículos de la revista mencionar “Diálogos Científicos”, la entrevista a D. Juan Antonio Zufiria, Director General de IMB Global
Technology Services Europa así como la “Mesa de ideas”, que aborda un aspecto de gran trascendencia como es la colaboración en materia de ciencia e
investigación en la Euro-región Aquitania – Euskadi.
El año de la luz
Que la revista CIC Network dedique parte de este número quince al Año Internacional de la Luz está plenamente justificado, pues la historia de nuestro
Universo y la de la civilización en nuestro planeta Tierra está íntimamente
relacionada con la luz; desde el fuego como iluminador de esa caverna ha-
Consejo Editorial
Aurkene Alzua-Sorzabal
Eduardo Anitua
Pedro Miguel Etxenike
Jesús María Goiri
Félix M. Goñi
Nuria Gisbert
Joseba Jauregizar
Luis Liz Marzán
Xabier de Maidagan
José María Mato
José María Pitarke
Ana Zubiaga
Director
Jesús María Goiri
bitada, a la exploración de lo más oculto de la materia; quizá con una radiación de
sincrotrón para caracterizar algún componente biológico clave como una proteína.
Ciertamente el progreso de la humanidad ha sido paralelo y se ha acelerado extraordinariamente con el conocimiento de la luz; sobre todo a partir del gran James
Clerk Maxwell, quien realizó la primera de las unificaciones de dos de las Fuerzas
principales que controlan nuestro Universo. A partir de ese instante fue cuando
empezamos a comprender que existía un mundo mucho más amplio que ese minúsculo intervalo de longitudes de onda que llamamos luz y que constituye lo que
vemos, ya que se descubrió que la luz se extendía más de 24 órdenes de magnitud:
desde las ondas más largas hasta la radiación gama más penetrante.
Colaboran
Pablo Alonso
Silvia Alonso-de Castro
Javier Aizpurua
Ricardo Díez Muiño
Josu Eguia
Rubén Esteban
Alex Fernández Muerza
Rainer Hilenbrand
L. Lamikiz
Josu Martínez-Perdiguero
Santos Merino
Daitze Otaduy
Santiago Pérez Hoyos
Aritz Retolaza
Emmanuel Ruggiero
Luca Salassa
L. Uriarte
Coordinación
Sara Ortiz
Prismaglobal
El progresivo dominio de la luz por parte de la Humanidad ha permitido que múltiples aplicaciones como la radio, la televisión, el radar de telefonía móvil, los láseres en todo tipo de equipos o que diagnósticos, terapias y tratamientos médicos
sean de uso común y se encuentren presentes en nuestras vidas diarias. Tenemos
que ser conscientes que todo esto y otras muchas utilizaciones, incluso el caso de
Internet, es el resultado de nuestro dominio sobre el fenómeno físico que denominamos luz.
Diseño y maquetación
Prismaglobal
Estas aplicaciones ya son habituales en nuestra vida diaria; pero todavía nos espera un gran camino de desarrollo con un futuro que nos sorprenderá a todos.
Los avances en el campo de la fotónica volverán, a buen seguro, a revolucionar
las aplicaciones de la luz; desde la computación cuántica a la opto-atómica, con
aplicaciones sorprendentes que van desde la navegación hasta la metrología. En
definitiva, podremos seguir teniendo muchos años internacionales de la luz y sin
embargo, no podemos olvidar el elemento clave: que la luz, sobre todo en esa diminuta banda de longitudes de onda que percibimos nos da la posibilidad de una
vida compleja en nuestra Casa merced a la fotosíntesis.
Edita
CIC Network
Asoc. Red de Centros de Investigación
Cooperativa del País Vasco
Parque Tecnológico de Bizkaia, Ed. 800
48160 Derio (Bizkaia)
[email protected]
Sí, la luz es muy importante. Como dice Ricardo Díez Muiño en un artículo de este
número: Mehr Licht!.
Reportajes fotográficos
Roberto Villalón
APPA Agence Photo
Depósito legal
SS-1228-2006
Esta revista no se hace responsable de las opiniones emitidas
por sus colaboradores. Queda prohibida la reproducción total
o parcial de los textos y elementos gráficos aquí publicados.
OS
ÍFIC
ENT
S CI
LOG
O
DIÁ
“Los nuevos modelos de
computación tratan de emular
la eficiencia energética del
cerebro humano”
Aurkene Alzua-Sorzabal, Directora General de CIC tourGUNE, entrevista a Juan
Antonio Zufiría, Director General de IBM Global Technology Servicies Europa
Juan Antonio Zufiría es una de las figuras más destacadas de la computación
en nuestro país. Desde 1987, este matemático e ingeniero aeronáutico, ha
estado ligado a una de las grandes multinacionales del sector: IBM. Primero
como investigador en el Thomas Watson Research Center de Nueva York y,
posteriormente, en varias funciones directivas, Presidente de IBM España,
Portugal, Grecia y Israel, hasta alcanzar su actual responsabilidad: Director
General de IBM Global Technology Services South West Europe. Zufíria es también
Académico Numerario de la Real Academia de Ingeniería de España.
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
Juan Antonio Zufiría, (Villabona) es Doctor Ingeniero Aeuronáutico por la Universidad Politécnica de Madrid, Ph.D. in Applied Mathematics por el California Institute of Technology y Master en Business
Administration por la London Shcool of Economics. En 1987 obtuvo el
premio W.P. Carey & Co. Inc. en Matemáticas Aplicadas del California
Institute of Technology a la mejor disertación doctoral. En 1989, fue
nombrado director de Tecnología de Ingeniería del Conocimiento (IIC)
desde donde impulsó su actividad innovadora. En la actualidad es Director General de IBM Global Technology Services South West Europa .
Desde que le otorgaran el premio WP Carey & Co. Inc. en Matemáticas
Aplicadas del California Institute of Technology a la mejor disertación
doctoral el mundo ha cambiado sustancialmente. ¿Cuáles son los principales aspectos de cambio?
Hay dos cosas que me han sorprendido en estos años desde que terminé
mi tesis doctoral, la primera es el aumento de la complejidad y el segundo el
cambio en la escala de tiempo en el que las cosas ocurren. Cuando pienso en el primero creo que hay una serie de factores económicos y sociales
que han sido impulsados por la globalización y también las tecnologías nos
han permitido entender mucho mejor el mundo que nos rodea, el mundo se
ha hecho mucho más interconectado y tenemos ahora mejores gafas (lentes)
para ver lo que ocurre a nuestro alrededor. Con los cual, tenemos un mundo
más complejo y vemos más complejidad en ese mundo, porque somos capaces de ver más cosas. Esto para mi es muy importante porque viniendo de un
mundo matemático me abre al espacio de los sistemas no lineales, la riqueza
de cosas que puedes hacer cuando las soluciones no son lineales aumenta
sustancialmente y eso es lo bonito del mundo que tenemos ahora. Veo más
cosas y veo que puedo hacer muchas más cosas.
La segunda, es la escala de tiempo en las que las cosas cambian. Cuando
comparo el ritmo de la innovación de la década de los 80, cuando hice mi
tesis doctoral, con el de ahora, el cambio es sorprendente. Por ejemplo, se
ha multiplicado por seis la producción de patentes anuales. Al tener capacidad de ver más cosas, también somos capaces de hacer más cosas en menos tiempo. La pregunta después de esto es obvia, ¿cómo puedo con mis
capacidades sacar provecho de la complejidad y el aumento en esta escala
de tiempo?, ahí es donde veo la posibilidad de utilizar nuestras tecnologías
para abordar la realidad de una forma más eficiente y ahí es donde entra el
concepto de si somos capaces o no de hacer inteligentes nuestros sistemas,
es donde surge la idea de la inteligencia artificial.
“La inteligencia artificial nunca
sustituirá a la humana”
Definitivamente desde los años 80 la concepción que tenemos de inteligencia artificial ha evolucionado. ¿Cuáles han sido los mayores cambios
que ha percibido?
Los cambios, aunque recientes en el tiempo, son enormes. La inteligencia artificial de los años 80 no fue más allá de crear los llamados sistemas expertos,
que no dejaban de ser aplicaciones diseñadas para automatizar procesos de
toma de decisiones sencillas, siguiendo pautas rígidas utilizadas por expertos
humanos y dentro de un conjunto de reglas perfectamente definidas, con cero
ambigüedades y de orden finito. Es, por ejemplo, el ámbito de aplicaciones
como los juegos automáticos de ajedrez. Han sido cambios disruptivos. Ahora
estamos en la era de los sistemas cognitivos, en la que de verdad estamos
dando un salto sustancial en la forma en la que entendemos la inteligencia
artificial. Estamos hablando de máquinas que son capaces de entender el lenguaje humano de detectar ambigüedad de postular hipótesis y verificarlas y de
tomar decisiones con atributos que cada vez se parecen más a la inteligencia
7
humana. Habréis visto ya probablemente una máquina que hemos lanzado
que se llama el IBM Watson, la desarrollamos para un concurso de televisión
en 2011 y con ella ganamos al campeón del mundo en contestar preguntas en
lenguaje natural. Para nosotros, esto es el comienzo de una nueva era.
Este sistema interpreta correctamente el lenguaje natural (no código informático), aprende de manera dinámica (en lugar de tener que ser reprogramado), razona (en el sentido de que es capaz de dar respuestas adecuadas a
preguntas complejas) y tiene una incipiente capacidad de incorporar el contexto externo en su proceso de toma de decisiones.
“La tecnología ya no trabaja para los
músculos, trabaja para las neuronas”
Hemos visto computadoras participando en Jeopardy o ganando a un
campeón del mundo de ajedrez como Kasparov. ¿Hasta dónde puede
llegar el poder de la computación?
Bueno, lo primero yo siempre pienso que cuando hablamos de computación
y hablamos de inteligencia artificial, nunca estamos hablando de la posibilidad de sustituir al ser humano. El ser humano está siempre por encima y los
sistemas de información siempre van a ser una herramienta. En la medida
en que la herramienta mejore, nuestras capacidades como seres humanos
se van a multiplicar, no estamos hablando de sustitución del ser humano
nunca. Hay teorías que ya se cuestionan cuando se va a poder construir una
máquina que sea más inteligente que el ser humano, yo creo que eso está
muy lejos en mucho aspectos y cerca en otros en el sentido en que sí podemos generar máquinas que tengan cierta capacidad de razonamiento, en un
área muy concreta, mayor que la del ser humano pero nunca va a sustituirlo.
Al contrario, el ser humano lo que va a hacer es elevarse, vamos a dejar de
hacer unas cosas para hacer otras de mayor valor añadido. Siempre vamos
a estar por encima de la máquina, nunca la máquina por encima nuestro,
aunque tenga capacidad de hacer algunas cosas más rápido que nosotros.
Año 2045 es la fecha que manejan los expertos como posible para desarrollar una máquina que, sólo en algunos aspectos concretos, supere al ser
humano.
Desde la propia Revolución Industrial las personas han tenido cierto recelo por que las máquinas pudieran reemplazarlos. Teniendo en cuenta
que actualmente existen sistemas de recomendación personalizados
que atienden al contexto del momento, ¿cómo tranquilizaría a todas
esas personas que temen por la deshumanización de actividades tan
típicamente humanas como tomar una decisión? Primero les diría que lo que hay que hacer es mirar a la historia con perspectiva. Esto ha pasado siempre, hemos tenido miedo a la llegada de los coches,
a las bicicletas, a todo y en realidad toda la historia de la humanidad está
llena de procesos de innovación, lo que nos pasa a nosotros es que cuando
la innovación ocurre en la escala de tiempo de tu vida y es más disruptiva
te da más miedo. Cuando uno estudia el PIB del mundo, hasta el siglo XVIII
se puede decir que no pasó nada, a partir de la revolución industrial viene
un período en el que el mundo progresó mucho y cuando analizas lo que
pasaba es que desarrollamos tecnología para sustituir a los músculos de
las personas. Desarrollamos una máquina y eso es lo que ha pasado hasta
ahora, que la innovación ha trabajado para los músculos, y eso lo entendíamos. Lo que ocurre en este momento es que la tecnología ya no trabaja
para los músculos, trabaja para las neuronas. Nos estamos dotando de herramientas que multipliquen la capacidad de pensar e interactuar y eso nos
da un poco más de miedo. Eso sí ¿va la máquina a sustituir la inteligencia
emocional?, nunca, yo creo que nunca. ¿Va a ser una máquina igual de inteligente que un hombre?, nunca. ¿Habrá aspectos concretos de procesos de
razonamiento que desarrollamos lo seres humanos que podremos delegar
en una máquina y que los haga mejor que nosotros?, seguro. Esto último va
a ser muy importante en el progreso y en su velocidad para el desarrollo de
la humanidad. ¿Por qué no ver entonces la tecnología como un facilitador
para pensar, decidir y actuar con una dimensión mucho más esencialmente
“humana”?
Viendo toda esta innovación, ¿cómo nos va a ayudar a influir y actuar
ante los nuevos cambios sociales?
Esta nueva tecnología nos permite observar muchísimo más, generar más
evidencia sobre esta realidad y abordar el comportamiento social y humano
de una manera diferente. Hay un fenómeno que estamos viviendo ahora
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
que son las redes sociales, que abre unas posibilidades de interconexión inmensas. Hay quienes piensan que estas redes aislan más a las personas y
las convierte más individualistas pero en realidad eres más social, lo que
pasa es que socializas de una manera diferente, interactúas con más gente.
¿Qué es lo que pasa? Que como toda esa interacción se realiza con tecnologías, registras todo lo que está pasando, dejas una evidencia. Somos capaces
de recoger toda esta información y de estudiarla y eso nos capacita para
analizar cómo ocurren las relaciones humanas, cómo interaccionan las personas. Ello nos faculta para tomar mejores decisiones. Por ejemplo, hemos
cerrado hace unas semanas un acuerdo con twitter que nos permite ofrecer
a clientes la posibilidad de analizar dichas interacciones para cambiar los
programas informáticos de esos clientes con el fin de que puedan tomar
decisiones de negocio más acertadas. Básicamente, podemos leer lo que se
dice, en base a ello saber como actúan diversos sectores de la sociedad y, de
esta manera, construir un marketing o desarrollar una serie de productos
que se ajusten mejor a la naturaleza de la sociedad actual.
“Necesitamos profesionales como los
data scientist para poder procesar los
inmensos volúmenes de información”
Hoy tenemos más tecnología para entender mejor las ciudades, la articulación más inteligente de estos espacios urbanos es fundamental en
un mundo donde en 2050 más del 70% de la población vivirá en ellos.
¿Cómo van a ayudar las ciudades inteligentes a sus ciudadanos? ¿Qué
aspectos estima van a ayudarles a mejorar su vida cotidiana?
Somos capaces de poner una capa de inteligencia encima de las ciudades
para haSomos capaces de poner una capa de inteligencia encima de las ciudades para hacer una vida cotidiana más fácil y mejor para todos. Vemos
3 pilares grandes de progreso: El primero es que las ciudades no analizan
todavía toda la información que tienen, la red de transporte o energía por
ejemplo; el segundo gran pilar es la anticipación, si eres capaz de anticipar
los posibles riesgos o problemas de una ciudad creas mucho valor y hoy
tenemos tecnología para poder anticipar fenómenos que puedan distorsio-
nar; y el tercer elemento es la coordinación, que es donde más valor hay.
Ahora mismo, los diferentes subsistemas que tiene una ciudad son bastante
independientes no interactúan entre ellos. Hay gran valor en hacer interactuar todos ellos, el Big Data que nos ayude a construir el ecosistema de la
ciudad y sacar mayores correlaciones y encontrar mejores soluciones. Aquí
es donde vamos a encontrar el verdadero concepto de ciudad inteligente, en
el conjunto de todas estas cuestiones.
¿En que aspectos se va a mejorar la vida cotidiana gracias a la inteligencia artificial?
Vamos a ver una mejora en todo lo que nos rodea, no es nada en concreto,
una mejor calidad de vida, porque mejoran todos los sistemas. Cuando los
sistemas están entrelazados una mejora en uno de ellos hace que mejore
todo. Por ejemplo, si tú mejoras el tráfico, reduces el nivel de contaminación,
mejoras las condiciones para la sanidad, seguros, etc. Una ciudad inteligente
no es otra cosa que una ciudad preparada para funcionar mejor, gastar de
manera más eficiente, prevenir y adaptarse a las situaciones cambiantes y
permitir una mayor capacidad de interacción, calidad de vida y participación
a sus ciudadanos.
Esta revolución que nos comenta requiere de dos cuestiones, nuevos
tipos de científicos y nueva forma de hacer ciencia. ¿Puede indetificar
las oportunidades, los retos de esta ciencia y esta tecnología, que convergen poco a poco en esta nueva forma de entender la inteligencia
aplicada?
Respecto a las capacidades, ahora tenemos mucha más información y capacidad analítica sobre lo que ocurre, el contexto por lo que me doto de mayor
capacidad para tomar mejores decisiones. El primer problema que tengo es
que hay que leer muchas cosas, son muy grandes en volumen, segundo, muchas de ellas no están estructuradas, es decir no son datos estructurados
en una tabla. El 80% de este volumen de datos courre en conversaciones entre personas, en mensajes de textos, imágenes, vídeos, periódicos, etc. Esto
implica retos tecnológicos y científicos, ¿tengo yo la capacidad de leer todo
eso, interpretar, analizar, buscar las correlaciones y el conocimiento que voy
a extraer de ahí? En la última década hemos asistido a la consolidación de
nuevos profesiones de investigación como el data scientist, como la persona
9
el especialista quien debe hacer el diagnóstico, el que decide lo que hay que
hacer.
Recientemente, en una prestigiosa publicación científica aparecía un
reportaje sobre el proyecto Sinapsia, al que llamaban el nuevo cerebro
de IBM. ¿Qué aporta este proyecto al mundo de la inteligencia artificial?
Es una importante revolución, hasta ahora, en el mundo del software hay
una cosa en la que no le estamos ganando al cuerpo humano: la cantidad de
especializada en entender correlaciones y procesar estos nuevos volúmenes de información. Entrar dentro de la información y buscar los algoritmos
matemáticos o lógicos necesarios para extraer conocimiento para llegar a
mejores conclusiones. Esta es una nueva área de capacitación que necesitamos en la sociedad.
“En Europa tenemos un reto: que los
resultados de la investigación básica
generen valor directo en la sociedad”
Cuando pienso en la aplicabilidad hay ejemplos muy significativos de estos
nuevos sistemas cognitivos en el mundo de la medicina, en las instituciones
financieras, en la interacción entre el ciudadano y las organizaciones públicas. Hemos creado un nuevo centro en Nueva York, el centro Watson, en el
que nuestros clientes, personas, pueden acudir con retos, ideas para que
nosotros busquemos soluciones tecnológicas.
Puedo poner el ejemplo de unos estudios desarrollados por una universidad
americana sobre la proteína P53, una proteína que es precursora de cáncer.
Se le dotó a Watson con el conocimiento que había sobre medicina (hay que
tener en cuenta que ahora en dos días generas tanta información como la
que había generado toda la humanidad hasta el comienzo de este siglo) en
Publimed, que cuenta con 23 millones de artículos, y se le solicitó a Watson
que identificara enzimas que pudieran actuar contra el P53. Hoy en día, entre
todos los investigadores mundiales trabajando en este campo, se encontra
una enzima por año. Watson, en sólo unas semanas, encontró 6. Para probar
la valía de Watson se hizo otra prueba, le dieron el Publimed con fecha 2003,
con el conocimiento de entonces y se le hizo la misma pregunta. Encontró
9 de las cuales, posteriormente, 7 han resultado reales, válidas. Solamente leyendo el Publimed. Una prueba definitiva que demuestra la eficacia de
computadoras como Watson. Un especialista en oncología para leerse todo
lo que se publica necesitaría 160 horas por semana, sólo le quedan 8 para
dormir, Watson lee todo ello y te puede asistir en el diagnóstico. Eso sí, es
energía que necesitamos para hacer todas esas búsquedas y procesos. Cualquier supercomputadora necesita megawatios, una cantidad de consumo de
energía brutal. En este momento un campo de investigación está centrado
en la posibilidad de nuevos modelos de computación que fueran eficientes
desde el punto de vista energético y se parecieran más a la computación
del cuerpo humano que sólo necesita unos pocos watios (alrededor de 20)
para el mismo esfuerzo. Estamos desarrollando tecnologías alternativas en
las que se intentan simular la arquitectura del cuerpo humano. Es el proyecto SyNAPSE. Para que nos hagamos una idea de las cifras de esta iniciativa,
estamos hablando de que con una potencia de 20mW/cm2 podemos tener
un millón de neuronas programables. Es decir, podemos tener un superordenador en la palma de la mano.
Cuando se pregunta cómo será la computadora del 2045, algunos apuntan
a que será como los computadores de ahora pero sumando muchos juntos;
otros creen que será como nuestro proyecto SyNAPSE (simulador de neuronas); y otros que piensan que será una cosa híbrida, que nos enchufaremos
un acelerador en nuestro cerebro y eso nos dará la posibilidad de computación. Hay diferentes escuelas que estudian los caminos para llegar más rápidamente a tener una capacidad de computación mayor. Poner un acelerador
al cerebro, copiar el cerebro o seguir escalando la capacidad.
¿Cuáles cree que van a ser los retos a los que va a tener que enfrentarse
en general la industria y los investigadores?
DIÁLOGOS CIENTÍFICOS - Juan Antonio Zufíria y Aurkene Alzua-Sorzabal
De alguna manera, ya lo hemos comentado antes, es el reto de ser capaz de
leer, entender y buscar correlaciones en un mundo dominado por los datos.
El análisis de los datos es lo que nos dará el salto exponencial hacia el futuro. Tenemos que desarrollar tecnología que nos permita tratar estos datos
de una manera estructurada y capacitar a los seres humanos, capacitar a
profesionales que sepan utilizar esas tecnologías para ayudar a la sociedad
a mover el futuro.
“Soy optimista, el 99% de los científicos
que ha tenido la Humanidad están hoy
vivos”
Ante la actual perspectiva en lo relativo a las políticas científicas europeas, nacionales y regionales, ¿cuál es el futuro que le augura al sector
de la investigación y la innovación?. ¿Qué cambios cree que sería conveniente aplicar en las actuales estrategias de I+D+I para poder situarnos
en un lugar competitivo global?
Cuando miro el dato del apoyo que se le da en Europa a estos temas creo
que es insuficiente teniendo en cuenta el reto al que se enfrenta nuestro
continente. Europa tiene que competir con una demografía que no le es favorable y con un nivel de vida que tampoco le favorece para competir con
otros mercados más emergentes. La única vía de competitividad es la generación de puestos de trabajo de mucho valor añadido y eso siempre está ligado a la capacidad que tienes de innovar. Los políticos todavía no se han dado
cuenta de lo importante que es esto. No le dan el valor que le corresponde.
También entiendo el contexto de limitación de recursos. Hay que hacer las
cosas de manera más eficiente, no sólo dedicar más dinero. Aun así, no se
están utilizando las colaboraciones público-privadas eficientemente porque
yo creo que hay oportunidades y el sector privado esta dispuesto a poner
dinero en esas oportunidades; siempre y cuando el sector público responda
con unas garantías, con unos marcos adecuados para que eso tenga sentido.
Ya hay mucha investigación básica en Europa y no estamos haciendo lo suficiente para fluir bien los resultados de esta investigación básica en valor
directo para la sociedad. Transferir la investigación básica en valor real no
implica mayor dinero sino mejor organización. Hay que darle valor y hacerlo
mejor.
¿Cuál es su visión y la de IBM sobre el futuro?
Yo creo que tenemos que ser extremadamente positivos hacia el futuro.
Solo nosotros mismos podemos destruir nuestro futuro. Hay datos para la
esperanza, por ejemplo, hoy en día el 99% de todos los científicos que han
existido en la historia de la humanidad están vivos. Tenemos más capacidad de pensar que nunca. Por otra parte, hemos desarrollado tecnologías
no que ayudan a nuestros músculos, sino que ayudan a nuestro cerebro a
ser más potente y además hemos aumentando mucho la interconectividad
en el mundo; la encefalización del mundo ha aumentando mucho, la interconexión entre el número de capacidades para generar nuevas capacidades.
Esto nos lleva a la conclusión de que el progreso que el mundo puede tener
debido a la tecnología es mucho más grande que nunca. Estamos ante una
trasnformación que es exponencial, no es lineal. Nuestra única limitación es
que a veces nos ponemos de acuerdo para romperlo en vez de para utilizarlo. El reto está en la sociedad, en organizarnos para ser capaces de absorber
toda esta tecnología.
¿Volvería a iniciar toda su carrera desde la matemática, desde la ingeniería?
Totalmente, no cambiaría nada, me da miedo cambiar cosas del pasado. Estoy bien ahora, así que esto quiere decir que todo lo que he hecho antes
tiene que estar bien. Eso no significa que no haya cometido errores, pero he
disfrutado mucho en esa intersección del mundo de la ciencia con el mundo
de la empresa. Cruzando conocimientos diferentes para crear innovación.
11
RTO
BIE
NA
AE
NCI
CIE
Divulgación científica
en Internet
Alex Fernández Muerza.
Periodista miembro de la Asociación Española de Periodismo Científico, de la European Union of
Science Journalists Asociaton y socio fundador de la Asociación de Internautas Vascos.
Ya no hay excusas para no hacer divulgación científica: Internet ha abierto
unas enormes y asequibles posibilidades de acercar la ciencia a la sociedad.
En una entrevista1 publicada en el diario asturiano La Nueva España, el pediatra
y neurofisiólogo Eduard Estivill, ante la afirmación del entrevistador “ha vendido dos millones de ejemplares de ‘Duérmete niño’, pero también ha recibido
muchas críticas”, respondía: “Los que critican mi método es que no han leído el
libro o han leído Internet, un foro en el que la ciencia brilla por su ausencia y en
el que pueden opinar pederastas y asesinos.”
Por su parte, el escritor Juan Manuel de Prada aseguraba en una entrevista en
el diario ABC que “Internet es la muerte de nuestra vida. Es la muerte de todo2”.
Son dos de los diversos ejemplos de ataques a Internet que pueden oírse o
leerse. El desconocimiento, el miedo a lo nuevo, al cambio, o el desprestigio
hacia la discrepancia son algunas motivaciones que impulsan estas críticas. Sin
embargo, precisamente por sus peculiares características, Internet es idóneo
para la ciencia y su divulgación.
Evidentemente, Internet también tiene sus inconvenientes; al fin y al cabo, se
trata de una extensión del ‘mundo real’. Ahora bien, ¿no es más lógico combatir
a quienes hacen mal uso, y aprovechar las nuevas ventajas? Como señala el
responsable de la Cátedra de Cultura Científica (CCC) de la Universidad del País
Vasco (UPV/EHU) Juan Ignacio Pérez Iglesias, en un dossier especial3 sobre divulgación científica de la revista de la Sociedad Española de Bioquímica y Biología
Molecular (SEBBM) “hay que hacer uso de todo tipo de medios y soportes, utilizando materiales específicos para cada uno de ellos. Y es importante ensayar
formatos nuevos, porque estamos asistiendo a la eclosión de modalidades de
difusión de la ciencia que pueden proporcionar excelentes resultados.”
Internet permite utilizar diversos registros y niveles de comunicación, enlaces
hipertextuales para dirigirnos a otros trabajos o explicar conceptos, imágenes,
videos, infografías interactivas, publicar, modificar y actualizar contenidos de
manera instantánea con posibilidades mundiales de difusión, generalmente de
forma gratuita, o con unos costes muy bajos, sobre todo en comparación con
los demás medios de comunicación. Se trata de un medio en el que se puede
ser tan breve o extenso como se quiera, y publicar tanto artículos super especializados como divulgativos o informativos, y llegar tanto a científicos como a
la sociedad en general.
Y sí, hablamos de medio. Internet es otro medio de comunicación, diferente a
los existentes, que toma de los mismos ciertos elementos pero incorpora otros
nuevos y evoluciona hacia nuevas formas de expresión, con nuevos soportes,
como tabletas, teléfonos y televisiones inteligentes, libros electrónicos etc., que
nos llevan a una Internet que será todo, independientemente del aparato y el
lugar en el que esté. Por tanto, no será importante hablar del medio, sino del
contenido. La mitad de la población española utilizó en 2013 los dispositivos
móviles para conectarse a la Red, lo que supone un crecimiento del 28% con
respecto a 2012, según datos del informe eEspaña 20134 .
“Por sus peculiares características,
Internet es idóneo para la ciencia y su
divulgación”
No resulta así extraño que Internet sea ya la primera fuente de información
científica, por delante de la televisión, como señalaba el informe ‘Percepción
Social de la Ciencia y la Tecnología en España’5 de la Fundación Española para la
Ciencia y la Tecnología (FECYT). No obstante, el informe ‘Los públicos de la ciencia6’ , dirigido por el profesor de la Universidad Rey Juan Carlos (URJC) Luis Pablo
Francescutti y editado por la Fundación Dr. Antoni Esteve, confirma también el
importante desajuste entre los casi 17 millones de españoles que manifestaban
su interés por la ciencia y la tecnología en la encuesta de la FECYT de 2010 y los
5 ó 6 millones que aproximadamente consumen esta información de manera
habitual.
CIENCIA EN ABIERTO - Divulgación científica en internet
Internet y la divulgación de la ciencia
El proceso de comunicación, divulgación e información de la ciencia ya no es
igual desde la llegada de Internet. La divulgación ha visto cómo se amplían espectacularmente en Internet sus posibilidades. La aparición de nuevas iniciativas, tanto amateurs como profesionales, es cada vez mayor. El elemento de comunicación de los descubrimientos científicos, las revistas científicas, también
se han visto afectadas por Internet. Nature es un claro ejemplo de apuesta por
ampliar y mejorar su presencia en Internet, no sólo con sus contenidos de papel, sino con comunicación, divulgación e información adaptada a este medio,
como blogs, ‘podcasts’ y ‘videocasts’ (grabaciones de audio o video similares a
programas de radio y televisión), foros o espacios orientados a la comunidad, y
llegar así a públicos más amplios que la propia comunidad científica interesados
en la ciencia. Internet puede contribuir a frenar los cada vez mayores costes de
la distribución en papel y a encontrar nuevas vías de negocio.
“Internet es ya la primera fuente de
información científica, por delante de la
televisión, según datos de la FECYT”
En la red se han creado los denominados ‘pre-prints’, artículos científicos de
acceso libre que no han sido sometidos al sistema de revisión de pares de las
revistas, de manera que se saltan el control y el tiempo de espera de éstas. Según Dídac Martínez, director del Servicio de Bibliotecas y Documentación de la
Universitat Politècnica de Catalunya. (UPC), “la comunidad académica y científica
debe recuperar el control de la difusión y acceso al nuevo conocimiento que
surge de sus instalaciones y sobre todo del pensamiento y de la creación de sus
miembros y apostar por el acceso libre. Con Internet tiene grandes oportunidades de hacerlo7.” Más recientemente, el Nobel de Medicina 2013 Randy Schekman señalaba públicamente su boicot a publicaciones como Nature, Science o
Cell por el daño que a su juicio le hacen a la ciencia. “Son como diseñadores de
moda o la cultura del bonus de Wall Street”, sentenciaba8.
Las instituciones, universidades, centros de investigación o empresas ligadas a
la ciencia y la tecnología, tanto públicas como privadas, son cada vez más conscientes de la importancia de comunicar y divulgar en Internet para dar a conocer investigaciones y productos que pueden resultar de interés a una sociedad a
la que se deben, y de paso, promocionarse en la dura lucha por la financiación.
La agencia espacial estadounidense (NASA), tanto su gabinete de comunicación
como su web (http://www.nasa.gov) (pendientes incluso de los hispanoparlantes
con webs como Ciencia@NASA (http://ciencia.nasa.gov) resultan paradigmáticos.
En España, la web del Instituto Astrofísico de Canarias (http://www.iac.es) fue una
de las primeras en hacer un esfuerzo divulgativo en Internet.
Diversas instituciones han puesto en marcha webs de divulgación e información
científica. EurekAlert! (http://www.eurekalert.org), desarrollado por la Asociación
Estadounidense para el Avance de la Ciencia (AAAS); AlphaGalileo (http://www.
alphagalileo.org) se dedica a difundir los avances de la investigación europea,
“para compensar la omnipresencia de la actualidad científica estadounidense”
según sus responsables; Agencia SINC (http://www.agenciasinc.es/), promovido
por la FECYT, similar a las anteriores sólo que en español y para potenciar las noticias de la investigación española; Red de Unidades de Cultura Científica (UCC),
puesta en marcha en 2007 por la FECYT, su objetivo es fomentar la divulgación
para ciencia a la sociedad (http://comcired.fecyt.es); Mapping Ignorance (http://
mappingignorance.org/), una iniciativa de la CCC y de la Fundación Euskampus
para difundir en inglés los avances científicos en general y los generados en
España y el País Vasco en particular; o las iniciativas de la Fundación Elhuyar
BasqueResearch (http://www.basqueresearch.com/), una web-puente para que
los investigadores vascos den a conocer su trabajo a los medios de comunicación, con publicación en euskera, inglés y castellano, y Zientzia.net (http://www.
zientzia.net/), con noticias en euskera sobre ciencia y tecnología, y enlaces a noticias destacadas de otros medios en inglés y francés.
El trabajo de divulgación de los museos de ciencia se ve también trasladada a
Internet. La Agencia SINC también ofrece un listado de los principales museos
y planetarios españoles. (http://www.agenciasinc.es/Enlaces-de-la-ciencia/%28filtro%29/-Museos_y_planetarios#enlaces_ciencia).
Las revistas de divulgación tienen página web en la que ofrecen los contenidos
del papel y también exclusivos para Internet. Las más conocidas son Ça m’intéresse (http://www.caminteresse.fr), Discover Magazine (http://discovermagazine.
com/), Focus (http://www.bbcfocusmagazine.com/), National Geographic (http://
www.nationalgeographic.com), o Popular Science (http://www.popsci.com); y en español Muy Interesante (http://www.muyinteresante.es) y Quo (http://www.quo.es).
Algunas iniciativas han surgido solo en Internet, con una gran variedad, aunque la incapacidad para autofinanciarse ha hecho que algunas de ellas desaparezcan o dejen de actualizarse. Por poner algunos ejemplos: How Stuff Works
(http://www.howstuffworks.com/), completo portal con explicaciones científicas
sobre cómo funcionan las cosas; Space (http://www.space.com/), web de referencia para noticias astronómicas y del espacio; en español Divulgamat (http://www.
divulgamat.net) sobre Matemáticas, etc.
Las Asociaciones de periodistas, comunicadores, divulgadores y escritores de
ciencia también tienen su presencia en Internet, como la Asociación Española
de Comunicación Científica (AECC) (http://www.aecomunicacioncientifica.org), la
Asociación Catalana de Comunicación Científica (ACCC) (http://www.accc.cat), la
European Union Science Journalists’ Association (EUSJA) (http://www.eusja.org/),
o la International Science Writers Association (ISWA) (http://internationalsciencewriters.org/).
En este sentido, financiar la divulgación científica en Internet, e incluso vivir profesionalmente de ella, no es precisamente una tarea sencilla, según ponen en
evidencia diversos estudios, como el Informe de Salarios de la Comunicación
elaborado por la empresa Wellcomm, que señala que “lo digital se paga peor”9.
Esta situación repercute evidentemente en la calidad de los contenidos.
Internet también está proporcionando vías alternativas de financiación de trabajos científicos y de divulgación. Mediante la denominada “Gamification”, se
realizan juegos, concursos, contenidos divertidos para llegar a un gran público.
Por ejemplo, el certamen ‘Dance your Phd10’ (‘Baila tu tesis’) organizado por la
revista Science y la AAAS propuso a científicos de todo el mundo que grabaran
un video musical para explicar su tesis y ganar un viaje a EE.UU. La bilbaína
Saioa Álvarez ganó la categoría de Química con un video que explica, al ritmo de
Shakira, el proceso de creación de una mayonesa baja en grasas.
13
El crowdfunding, o financiación colectiva, permite a cualquier persona ayudar
a un proyecto que le gusta, al aportar una cantidad de dinero. En España, este
sistema ha pasado de recaudar 9,7 millones de euros en 2012 a 19,1 millones en
2013, y hay 53 plataformas generalistas y específicas, entre ellas dos específicas
para temas científicos, según un informe de la web especializada en esta materia Infocrowdfunding.com. Por ejemplo, el reto SciFund, una iniciativa de crowdfunding creada en EE.UU. para investigadores de todo el mundo. Según12 Marisa Alonso Núñez, una investigadora que financió uno de sus trabajos con este
sistema, lo novedoso es que “los propios científicos presentan sus proyectos de
forma interesante y entendible para que la gente elija los que quiera financiar”.
Tecnologías para divulgar en internet
Internet ofrece multitud de posibilidades y herramientas multimedia para divulgar ciencia. En la actualidad la red se conoce como Web 2.0, un concepto que
engloba tecnologías y aplicaciones para la colaboración y participación, y en las
que la ciencia tampoco está al margen. Las redes sociales son tal vez uno de los
servicios más conocidos. En estas webs sus usuarios pueden publicar contenidos para que los vean sus amigos u otras personas a las que se dé permiso, y
buscar nuevas amistades o contactos. Los usuarios pueden así compartir contenidos, interactuar, crear comunidades y seguir temas sobre intereses similares. Facebook (http://www.facebook.com/), Twitter (http://twitter.com/), o Google+
(https://plus.google.com/) son las más conocidas, así como Linkedin (http://www.
linkedin.com/), como red social profesional en la que también se pueden encontrar contenidos de divulgación.
El fenómeno de los blogs, aunque un tanto eclipsado por las redes sociales,
sigue teniendo un gran peso en el mundo de la divulgación científica en Internet. Entre sus ventajas destaca la facilidad con la que cualquiera, sin apenas
conocimientos informáticos, puede tener y actualizar uno de manera gratuita,
en plataformas como Blogger (http://www.blogger.com/) (hace falta tener una
cuenta en Google), o WordPress (http://es.wordpress.com/). Por ello, cada vez
son más los ‘blogueros’ que se lanzan a publicar blogs relacionados con ciencia,
contabilizándose por centenas. Diversas webs ofrecen un listado de blogs de
ciencia en los que también se mide su popularidad, como por ejemplo la lista de
blogs de Alianzo (http://www.alianzo.com/es/top-ranking/Blog/media/cat/ciencia),
la de Ebuzzing (http://labs.ebuzzing.es/top-blogs/ciencia) o la de Bitácoras (http://
bitacoras.com/top/bitacoras/categoria/ciencia).
“Internet también está proporcionando
vías alternativas de financiación de
trabajos científicos y de divulgación”
Además de los blogs individuales, también podemos encontrar ‘granjas de
blogs’ o ‘blogs colectivos’ en los que varias personas se encargan de mantener
y publicar contenidos en un mismo espacio. Por poner algunos ejemplos, en
inglés se puede encontrar Science Blogs (http://scienceblogs.com/) y en español
Naukas (http://naukas.com/), E-ciencia.com (http://e-ciencia.com/) o Hablando de
ciencia (http://www.hablandodeciencia.com/). Como iniciativa del mundo universitario e institucional, Ehusfera (http://www.ehu.es/ehusfera/es/) de la UPV/EHU, o
los de Madrimasd (http://www.madrimasd.org/blogs/).
El Wiki es una aplicación de informática colaborativa que permite que varias
personas puedan crear, actualizar y corregir documentos web de manera colectiva y sencilla. De todos los wikis, sin duda el que más participación y renombre
ha conseguido es la Wikipedia (http://www.wikipedia.org), una enciclopedia on-line de contenido libre mantenida y administrada por la fundación norteamericana sin ánimo de lucro Wikimedia con la ayuda de cientos de voluntarios de
todo el mundo.
Las webs de ‘inteligencia colectiva’ tienen a los usuarios como protagonistas, ya
que seleccionan la información para el resto de la comunidad. Se podría hablar
básicamente de dos tipos. Por un lado, las informaciones son enviadas por los
usuarios, que son publicadas si los editores de la web las consideran interesan-
tes. Estas noticias luego pueden ser comentadas por los usuarios. La primera
fue Slashdot, que cuenta con sección de Ciencia (http://science.slashdot.org/). La
versión castellana de esta web más popular es Barrapunto, que también tiene un apartado para temas de Ciencia (http://ciencia.barrapunto.com/). Por otro
lado, los usuarios envían historias que los demás usuarios del sitio pueden votar, moviendo las más votadas a la página principal. La primera en lanzar este
concepto fue la estadounidense Digg (http://digg.com/). En castellano, la más
popular es Meneame (http://www.meneame.net/). Una web más reciente basada
en Meneame para contenidos específicos de divulgación científica es Divúlgame
(http://www.divulgame.net/).
Los ‘marcadores sociales’ permiten agregar los marcadores que se guardan en
los navegadores y categorizarlos con un sistema de etiquetado. De esta manera, sus usuarios almacenan sitios webs, los comparten con otros usuarios,
y conocen cuántos tienen un determinado tema guardado en sus marcadores.
Entre estos servicios se puede destacar Delicious (http://delicious.com/) o Reddit
(http://www.reddit.com/).
Ante toda la cantidad de contenidos que puede encontrarse en Internet, uno de
los peligros que se corre es el de la sobre información o saturación. Una forma
de evitarlo es organizando los medios de los que se quiere estar actualizado.
Para ello se pueden utilizar los ‘agregadores de contenido’, que reúnen información categorizada de forma automática gracias al sistema RSS, como Feedly
(http://feedly.com/).
“No hay que caer en la ‘tecnofobia’,
pero tampoco en el ‘ombligismo’:
La divulgación no se debe hacer
para nosotros mismos, sino para los
internautas, que en muchas ocasiones
saben más que nosotros”
Internet es ahora más multimedia que nunca, y si bien los contenidos de divulgación científica están un tanto dispersos, se pueden encontrar ejemplos
interesantes, como ‘podcasts’ y ‘videocasts’ en webs tanto amateurs como profesionales (http://e-ciencia.com/blog/divulgacion/los-mejores-podcasts-de-ciencia/),
sistemas de edición y publicación audiovisual on line con contenidos de ciencia
muy diversos, como en Youtube (http://www.youtube.com) o Vimeo (http://www.
vimeo.com), buscadores de videos de ciencia, como Science Hack (http://sciencehack.com), webs para publicar y compartir presentaciones tipo powerpoint
en SlideShare (http://www.slideshare.net), webs para montarte una televisión en
streaming (emisión en directo por Internet), como Livestream (http://www.livestream.com/), etc. En español destaca Indagando (http://www.indagando.tv/), una
TV en streaming para divulgar contenidos de ciencia e innovación. Como herramientas para establecer conferencias entre dos o más usuarios, que pueden
utilizarse como canales divulgativos, se pueden utilizar hoy programas de chat
de texto, audio y video, como Skype (http://www.skype.com/) o Hangouts (http://
www.google.com/chat/video).
CIENCIA EN ABIERTO - Divulgación científica en internet
El movimiento es vertiginoso en Internet, y algunos expertos ya hablan de la
llegada de la “web 3.0.”, marcada por su “inteligencia semántica” y su carácter
móvil y ubicuo. Las nuevas tecnologías no corren, vuelan, pero su objetivo es
ofrecer a los internautas más posibilidades. La siguiente versión del “lenguaje
de Internet”, el html5, promete hacer la red mucho más interactiva, mientras
que el concepto de ‘la nube’ (“cloud computing”) promete virtualizarlo todo. Las
redes sociales generalistas, tipo Facebook, podrían dejar paso a otras más especializadas, para ajustarse a las características temáticas de sus responsables.
Algunas ideas para mejorar la divulgación
científica en Internet
•
No caer en la ‘tecnofobia’, pero tampoco en el ‘ombligismo’: La divulgación no se debe hacer para nosotros mismos, sino para los internautas,
que en muchas ocasiones saben más que nosotros. Los géneros, lenguajes y formatos no son mejores ni peores, sino diferentes según a
quién y cómo queramos llegar.
•
Seguir el ejemplo de las buenas iniciativas del mundo anglosajón, algunas de las cuales nos llevan mucha ventaja.
•
Profesionalización de los divulgadores digitales. La precarización laboral
empeora la calidad y cantidad de las iniciativas de ciencia en Internet.
•
Conocer mejor a los internautas para afinar más en lo que quieren.
•
Formación en divulgación científica y digital.
•
Potenciación de una cultura divulgadora y digital entre los científicos,
que puedan ser tanto fuente como divulgadores en sí.
•
Dar mayor peso en instituciones, universidades, empresas y centros de
I+D a la divulgación de la ciencia en Internet, no sólo con contenidos
corporativos. La Ciencia es cultura y la generalización del conocimiento
y de una opinión pública informada y crítica fortalece la democracia.
•
Digitalización del conocimiento científico con acceso sencillo y público:
Tesinas y tesis doctorales, revistas científicas, etc.
•
Creación y afianzamiento de iniciativas en Internet y no una copia de
otros medios: webs multimedia, comunidades on-line participativas, videoconferencias con científicos, guías de expertos, sistemas de noticias
especializadas para que los medios de comunicación amplíen sus contenidos de Ciencia, etc.
Referencias
[1] http://www.lne.es/secciones/noticia.jsp?pRef=2008052000_31_637940__
Oviedo-Media-hora-haciendo-cosas-bien-suficiente-para-educar)
[2] http://www.abc.es/cultura/libros/20130113/abci-juanmanuel-prada-internet-201212272103.html
[3] http://www.sebbm.com/173.htm
[4] http://fundacionorange.es/fundacionorange/analisis/eespana/e_espana13.html
[5] http://icono.fecyt.es/informesypublicaciones/Paginas/
Percepcion-Social-de-la-Ciencia.aspx
[6] http://www.esteve.org/cuaderno-publicos-ciencia/
[7] Martínez, Dídac, “La crisis de las revistas científicas y las nuevas
oportunidades de Internet”, Telos, http://sociedadinformacion.fundacion.
telefonica.com/telos/articulotribuna.asp@idarticulo=2&rev=56.htm
[8] http://www.elmundo.es/salud/2013/12/10/52a732c763fd3d00028b457e.html
[9] http://www.trecebits.com/2013/01/15/asi-son-los-salariosde-los-profesionales-de-la-comunicacion-en-espana/
[10] http://news.sciencemag.org/people-events/2014/11/
dance-your-ph-d-winner-announced
[11] http://www.infocrowdsourcing.com/crowdfunding-espana-2013-19-millones/
[12] http://e-ciencia.com/blog/noticias/ingenio-contra-la-crisis-elreto-scifund-una-nueva-forma-de-financiar-la-ciencia/
15
RTO
BIE
NA
AE
NCI
CIE
Impresoras 3D, ¿la tercera
revolución industrial?
Alex Fernández Muerza
Convierten en objetos reales diseños por ordenador de forma rápida, sencilla
y económica. La nueva era de la innovación y la producción industrial se está
imprimiendo en 3D.
Daniel Omar estaba cuidando las vacas de su familia, en el sur de Sudán, cuando
una bomba le dejó a sus 14 años sin ambas manos. Se calcula que el conflicto armado en la región ha causado unas 50.000 amputaciones. Tras conocer
la historia, el productor audiovisual y filántropo estadounidense Mick Ebeling
puso en marcha el ‘proyecto Daniel’ . Su objetivo: crear una prótesis por menos
de cien dólares para Daniel1 y otros damnificados. El diseño se ha hecho libre
de patentes y la tecnología de la impresión 3D ha hecho el resto. El hospital de
las Montañas Nuba tiene ahora un laboratorio que ha fabricado un antebrazo
artificial para Daniel y otras personas que no podrían permitirse de otra forma
una prótesis convencional.
La idea de las impresoras 3D es tan sencilla como revolucionaria. Consiste en
crear objetos físicos a partir de un archivo modelado antes en un ordenador.
“No me voy a poner cursi y decir que puedes hacer todo lo que imaginas, pero
la impresión 3D tiene el inmenso potencial de hacer muchas cosas de forma di-
ferente, pura innovación. Lo mejor está por descubrir. Además, en combinación
con un escáner 3D, las aplicaciones se multiplican”. Son palabras de Jon Bengoetxea, responsable de Tumaker, una empresa con sede en Oiartzun (Gipuzkoa)
que ha desarrollado ‘Voladora’, una impresora 3D con tecnología 100% vasca.
Diversos analistas y medios como The Economist apuntan2 a las impresoras 3D
como la cabeza visible de una ‘Tercera Revolución Industrial’, en la que se apuesta por la calidad, la innovación y los productos hechos de forma local, a pequeña
escala y a medida. El periodista y emprendedor en Internet Nicolás Boullosa
explica3 que “las grandes factorías instaladas en países emergentes, fruto de
las economías de escala, cederán protagonismo a talleres de profesionales, de
nuevo en los países desarrollados”.
“La impresión 3D puede solucionar,
y de hecho está haciéndolo, muchos
problemas en diversos campos de la
ciencia y la tecnología”
‘The Open Shoes’ sería, siguiendo dicho criterio, una iniciativa de esta nueva era
industrial. Seleccionada por su originalidad por Innobasque, la Agencia Vasca
de Innovación, propone acercar a los ciudadanos el ‘calzado de bienestar’, de
manera que cualquiera pueda disponer de un calzado adaptado a sus características fisiológicas. Según uno de sus impulsores, Javier Bustamante, “la impresión 3D puede solucionar, y de hecho está haciéndolo, muchos problemas en
diversos campos de la ciencia y la tecnología. Y sirve para acelerar y abaratar
muchos procesos. Hace unos años para un prototipo de un producto se podía
tardar meses o incluso años y si había que modificarlo ocasionaba unos costes
elevadísimos que hacía que muchos se quedasen por el camino. Hoy en día, una
vez diseñado, se puede imprimir en unas horas y, si no funciona, modificarlo y
volver a imprimirlo.”
CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial?
Posibilidades inmensas
Empresas de sectores muy diversos utilizan ya impresoras 3D para generar
prototipos de productos, piezas, o utillaje para sus procesos de fabricación; en
formación profesional y universidades para crear prototipos e incluso objetos
funcionales que aplican a robótica, electrónica, mecánica, arquitectura, etc.; o
en laboratorios de investigación para hacer a medida sus propias herramientas.
En 2013, según diversos datos manejados por Bengoetxea, la cifra de negocio
movida por la industria de las impresoras 3D alcanzó los 895 millones de euros,
y hay estudios que estiman que para 2025 podría rondar una horquilla entre los
3.200 y los 47.000 millones de euros. Szilárd Kados, diseñador gráfico e ingeniero 3D en DeustoTech, el Instituto de Tecnología de la Universidad de Deusto,
señala otras estimaciones para 2013 en torno a los 2.000 millones de euros y
unas previsiones de incremento del 600% para 2018.
A medida que su uso se diversifica y generaliza, las impresoras 3D y sus resultados se pueden ver tanto en el espacio como en la casa de algún entusiasta
de esta tecnología. La Agencia Espacial Estadounidense (NASA) ha llevado a la
Estación Espacial Internacional la ‘Zero-G’, una impresora 3D para estudiar las
posibilidades de imprimir objetos 3D a bordo de las naves espaciales. Los astronautas serían así más autónomos y no dependerían del suministro de nuevas
piezas o elementos desde la Tierra, esencial para misiones a otros planetas. La
Agencia Espacial Europea (ESA) ha puesto en marcha el proyecto ‘Amaze’ para
el desarrollo de estas técnicas, mientras que organizaciones como Inspiration
Mars Foundation o Mars Wane las consideran claves para que dentro de unas
pocas décadas haya colonias con humanos en el planeta rojo.
Sin necesidad de ir al espacio, el aspecto de la distribución y la logística es otra
cuestión que cambiará por completo. Como señala Javier Pedreira ‘Wicho’, uno
de los autores del blog tecnológico Microsiervos, “en un lugar aislado, con tal
de tener una impresora 3D y el material en bruto necesario se podrían fabricar
repuestos o suministros que hicieran falta sin depender de que nadie los haga
llegar allí.” 4
La impresión 3D se adapta a las necesidades de sus usuarios, de manera que
se pueden hacer desde piezas diminutas hasta productos más grandes como
edificios o automóviles. La empresa china Winsun New Materials construye viviendas en un día a partir de piezas impresas prefabricadas. El estudio de arquitectura danés Eentileen y la empresa Facit Homes, especializada en crear
casas personalizadas, pusieron en pie la Villa Asserbo, una vivienda unifamiliar
a partir de diseños 3D. En Ámsterdam, el estudio Dus Architect’s ha diseñado
un edificio, Print Canal House, con una impresora 3D creada para que pudiera
fabricar las piezas con las dimensiones requeridas. Los diseñadores londinenses Zero Zero han inventado un sistema para construir espacios habitables con
componentes que pueden obtenerse en Internet, para imprimirse y montarse
en cualquier lugar. Según sus responsables, la impresión 3D abarata costes y
reduce el impacto ambiental de la construcción.
Kor Ecologic es una empresa canadiense que ha creado el ‘Urbee’, un coche
híbrido con piezas obtenidas en una impresora 3D. El vehículo recorre 100 kilómetros con 0,86 litros de biocombustible y ha costado 55.000 euros, la mitad de lo que hubiera supuesto con métodos convencionales. Un equipo de
la academia de ingeniería blea Group T ha creado ‘Areion’, un pequeño coche
de carreras cuya gran mayoría de piezas se han impreso en 3D a partir de un
modelo digital.
“La impresión 3D se adapta a las
necesidades de sus usuarios, de manera
que se pueden hacer desde piezas
diminutas hasta productos más grandes
como edificios o automóviles”
El sector médico-sanitario es uno de los que más puede beneficiarse. Además
de la citada prótesis del joven Omar, otro caso llamativo es el de Kaiba Gionfriddo, un bebé de seis semanas incapaz de respirar por si solo que salvó la vida
gracias a una tráquea artificial impresa en 3D por un equipo de la Universidad de Michigan (EE.UU.). Bespoke Innovations, con sede en San Francisco (EE.
UU.), produce prótesis personalizadas con un menor coste que las tradicionales.
Organovo trabaja en el desarrollo de ‘bioprinters’, para la creación de órganos
humanos con impresoras 3D a partir de células madre. Sin ir tan lejos como la
creación sintética de órganos para trasplantes, se baraja la posibilidad de crear
copias de órganos impresas en plástico u otro material sencillo para practicar
operaciones complejas antes de hacerlas con el paciente.
El mundo de la ciencia también puede sacarle mucho partido. Un equipo del
Imperial College de Londres han creado las ‘sculplexity’, esculturas creadas con
impresoras 3D para llevar a la realidad conceptos matemáticos.
17
Impresión 3D para todos los públicos
El responsable de Tumaker diferencia entre las empresas que ofrecen productos muy sofisticados y de nicho para diferentes sectores de la industria, como
Stratasys y 3D Systems, y las empresas que ofrecen “impresoras 3D personales”.
Ahora bien, la idea de tener una en casa, al igual que la típica para imprimir en
papel, se encuentra todavía algo lejos. Según Bengoetxea, se pueden encontrar
impresoras 3D “en formato kit” que pueden rondar los 300-400 euros, pero para
sacarles rendimiento hay que saber montarlas y usarlas, y para ello hace falta
invertir “más tiempo del que normalmente se está dispuesto”. Bustamante recomienda a quien quiera comprarse una que piense antes para qué la quiere:
“hay que saber diseñar en 3D. Si no, se va a dedicar únicamente a descargarse
de Internet diseños ya realizados por otros usuarios.”
¿Cómo funciona
una impresora 3D?
“Se pueden encontrar impresoras 3D
“en formato kit” que pueden rondar
los 300-400 euros, pero para sacarles
rendimiento hay que saber montarlas
y usarlas, y para ello hace falta invertir
más tiempo del que normalmente se está
dispuesto”
La impresión 3D no es una recién llegada. Hace 31 años,
el estadounidense Chuck Hull ideó el primer método de
impresión 3D: la estereolitografía. Tres años después
fundó la compañía 3D Systems y comenzó a comercializar
las primeras máquinas de impresión estereolitográficas.
A partir de entonces, como explica Bengoetxea, se
desarrollan diferentes tecnologías de impresión 3D, entre
ellas las de modelado por deposición fundida, la utilizada
normalmente en los modelos personales.
Por otra parte, se encuentran las impresoras 3D “Out-of-the-box”, listas para imprimir una vez se sacan de su caja. Bengoetxea señala que, dependiendo de características y funcionalidades, pueden costar entre 1.000 y 2.000 euros, “pero
ofrecen fiabilidad y calidad profesional y se empiezan a aproximar en usabilidad
y coste a lo que las personas no expertas pueden esperar.” Su empresa ha apostado por uno de estos modelos con la denominada ‘Voladora V2’.
“La posibilidad de replicar cualquier
producto aumentará los problemas con
la vulneración de patentes o los derechos
de autor”
Mientras llega el momento, al igual que otras tecnologías, en el que la facilidad
de uso y precio las haga asequibles a un gran público, se puede optar por las
El proceso de creación comienza con el diseño del objeto.
Para ello pueden utilizarse diversos programas informáticos, como SketchUp o Wings 3D, de manera que el objeto
realizado se pueda imprimir por adición, es decir, añadiendo material capa a capa. Plásticos de diversos tipos, goma,
papel o metales como el aluminio son algunos materiales
utilizados. Las piezas se pueden fabricar sin juntas, de manera que son más sólidas, y más ligeras.
empresas que ofrecen impresiones 3D. Kados diferencia entre las impresoras
3D patentadas y las de ‘código abierto’ (ambas se pueden encontrar en Euskadi). Las primeras, casi todas con tecnología patentada en EE.UU., se distribuyen
por diversas empresas e incluso ofrecen la posibilidad de imprimir modelos 3D,
como el propio DeustoTech. Las segundas permiten que cualquier empresa
pueda desarrollar su propia impresora 3D y venderla, como Tumaker.
Las aplicaciones más ‘domésticas’ son cada vez más diversas y originales: juguetes personalizados por la empresa Imaginarium; platos de comida originales por la empresa barcelonesa Natural Machines; zapatillas de atletismo para
mejorar el rendimiento de los corredores por marcas como Puma, Nike o Adi-
CIENCIA EN ABIERTO - Impresoras 3D, ¿la tercera revolución industrial?
Desafíos de las impresoras 3D
Las impresoras 3D deberán hacer frente a una serie de desafíos y dificultades, además del citado precio elevado y su falta de usabilidad para lograr su generalización:
Velocidad: El responsable de ‘The Open Shoes’ explica que las actuales tienen unas
velocidades máximas “que según para qué usos pueden ser bastante lentas, aunque ya hay en marcha proyectos que prometen solucionarlo.”
Conflictos legales y éticos: La posibilidad de replicar cualquier producto aumentará los problemas con la vulneración de patentes o los derechos de autor. Por
su parte, como expone5 Eduardo Paz, consultor especializado en marketing y tecnología, abrirá nuevos problemas relacionados con la manipulación del ADN, la
clonación humana, o la creación de órganos humanos, e incluso con la posibilidad
de hacer drogas de diseño. Además, este experto recuerda el tema de la responsabilidad del fabricante: ¿Quién se hace cargo si por ejemplo falla un casco hecho
con una impresora 3D y su usuario se rompe el cuello?
Seguridad: En 2013 se creaba en EE.UU. ‘Liberator’, la primera pistola hecha con
una impresora 3D a base de plástico. Aunque su fabricación fue más costosa que
la de una pistola convencional similar, abrió la polémica de que cualquiera puede
hacerse un arma sin necesidad de los necesarios permisos legales. Photobump
es un programa informático que permite duplicar cualquier llave a partir de la
foto de una cerradura e imprimir una copia para abrirla. Sus autores, los ingenieros Jos Weyers y Christian Holler, pretenden dejar en evidencia que las cerraduras de pistones se han quedado obsoletas. Asimismo, los materiales que
entren en contacto con alimentos deberían contar con las mismas garantías de
seguridad que los utilizados por la industria alimentaria.
Impacto ambiental: Al producir objetos a medida, reducen el impacto ambiental
que supone la producción en masa, pero también tienen otros inconvenientes
para el medio ambiente, como un alto consumo de energía, la utilización de
materiales contaminantes, la generación de residuos, o la dependencia de los
plásticos. Por ello ya se habla de buscar nuevos materiales biodegradables o
reutilizables y un uso más eficiente de los recursos.
das; joyas con diseños únicos por la neoyorquina American Pearl; miniaturas
3D para la reconstrucción de la escena de un crimen por la policía de Tokio;
réplicas exactas de cuadros famosos por la compañía rusa Prixel; vestidos a
medida para la actriz y bailarina Dita Von Teese; carcasas para teléfonos móviles
por Nokia; auriculares que encajan a la perfección en los oídos por la empresa
neoyorquina Normal; el busto del presidente de EE.UU. ,Barack Obama, por un
equipo del Instituto Smithsonian; y un etc. que se irá viendo en los próximos
años. Como señala Bengoetxea, “acabamos de entrar en un proceso donde las
personas fabricarán casi cualquier cosa estén donde estén y cuando lo necesiten. Casi nada.”
Referencias
[1] http://www.notimpossiblelabs.com/#!project-daniel/c1imu
[2] http://www.economist.com/node/21553017
[3] http://faircompanies.com/news/view/impresoras-3d-10productos-cotidianos-que-pueden-imprimirse/
[4] http://www.rtve.es/noticias/20131019/impresion-3d-metal-prometerevolucionar-forma-se-fabrican-muchas-cosas/769460.shtml
[5] http://eduardopaz.com/10-problemas-o-peligros-de-las-impresoras-3d/
19
IVO
NV
NE
IGA
CIÓ
EST
INV
Mehr Licht!
Ricardo Díez Muiño.
Director del Centro de Física de Materiales CSIC-UPV/EHU y Director del Donostia International
Physics Center, Donostia – San Sebastián.
De la misma manera que al entrar en una habitación a oscuras buscamos
automáticamente con la mano el interruptor que nos permite iluminar
el entorno, muchos físicos recurren de forma casi instintiva a la luz para
orientarse en el mundo microscópico y entender cómo funciona la materia
en la escala atómica. Este texto hace un breve repaso de la información que
podemos adquirir al hacer incidir luz sobre sistemas de muy distinto tamaño
y recoger los electrones que son emitidos en procesos de fotoemisión.
Cuenta la leyenda que al comienzo de la primavera de 1832, en su último momento de lucidez antes de morir, el escritor alemán Johann Wolfgang von Goethe gritó con voz quejumbrosa “mehr Licht!”, “¡más luz!”. Quizás porque la expresión cuadra perfectamente con el temperamento del romántico Goethe, capaz
de vender su alma al diablo, al menos en la ficción, por un amor de juventud,
esta frase se ha dado por cierta y ha generado no pocas interpretaciones. La
más literaria y humana es que Goethe sentía la sombra oscura de la muerte
acercándose y reclamaba, ansioso, un poco más de vida, una prolongación de su
tiempo. Una interpretación más prosaica y no sé si más verosímil, es que Goethe
simplemente solicitaba a una de sus asistentes que descorriera las cortinas de la
ventana que daba al jardín para poder contemplar mejor la luz de la mañana. En
cualquier caso, lo que parece muy poco probable es que con sus últimas palabras el bueno de Goethe estuviera reclamando estudios científicos más profundos sobre la naturaleza de la luz. A pesar de lo que pueda parecer, no sería esta
nueva explicación de sus últimas palabras una teoría tan descabellada, puesto
que en el siglo XIX la separación entre las disciplinas artísticas y científicas era
menos acusada que en la actualidad. El propio Goethe era científico además de
poeta, estaba en estrecho contacto con investigadores de su época y llegó a publicar incluso un libro de óptica en el que teorizaba sobre el fenómeno del color.
A buen seguro que, de encontrarse en una situación vital más sosegada, Goethe
hubiera reivindicado con firmeza más avances científicos sobre la luz.
El hecho de que sea la primera de las interpretaciones, la literaria, la que más
aceptación haya encontrado es debido probablemente al simbolismo que la luz
ha tenido siempre para el ser humano. La luz nos saca de la oscuridad, ilumina
Figura 1. Además de sus obras literarias, Johann Wolfgang von Goethe (1749-1832) publicó
varios trabajos científicos, entre ellos uno sobre la naturaleza de la luz y el color (Teoría de
los colores, 1810).
INVESTIGACIÓN EN VIVO - Mehr Licht!
nuestro mundo y es por tanto ayuda para el conocimiento de nuestro entorno.
Ya en la tradición bíblica se dice que Dios vio que la luz era buena y que separó
la luz de las tinieblas que cubrían el abismo. Arrojar luz sobre cualquier problema significa descubrir sus recovecos para poder afrontarlo de una manera más
eficaz. Es la misma metáfora que llevó a llamar al siglo XVIII, aquel en el que se
extendió el uso de la razón y el análisis para mejorar nuestra comprensión del
mundo, el Siglo de las Luces.
“La luz nos saca de la oscuridad, ilumina
nuestro mundo y es por tanto ayuda para
el conocimiento de nuestro entorno”
La iluminación de un objeto nos permite por tanto acceder a él en todos sus
detalles. Pero hacer incidir luz sobre él puede ser también una forma de transmitirle energía. La luz solar focalizada por una lente es capaz de prender una
llama y crear fuego. La energía transportada por la luz puede llegar incluso a
romper el objeto, de la misma forma que las pistolas-láser en cualquier película
de ciencia-ficción son capaces de agujerear las avanzadas armaduras protectoras de los soldados enemigos. Somos por tanto capaces de recoger información,
pero también de modificar y romper cosas con la luz. Vamos a hablar en los
párrafos siguientes de luz, del lugar en que se encuentra nuestro conocimiento
actual de la luz y de algunos de los papeles protagonistas que ha adquirido en la
ciencia actual, en particular cuando actúa en feliz pareja con otro de los grandes
nombres de nuestro universo científico, el electrón.
Recordando a los grandes
Aunque el progreso en la descripción científica de la naturaleza y efectos de la
luz, como en cualquier otro problema científico, esté basado en numerosas contribuciones históricas que incluyen grandes nombres de la física como Newton
o Maxwell y que han ido ampliando la frontera de nuestro conocimiento, existe
una fecha que podríamos considerar clave en la comprensión actual de la interacción entre luz y materia: 1905, el Annus Mirabilis de Albert Einstein, el año en
el que el físico alemán (después suizo y estadounidense) publicó en la entonces
prestigiosa revista alemana Annalen der Physik cinco artículos históricos, básicos para el desarrollo de gran parte de la física moderna. Entre estos cinco
artículos, hay tan solo uno que el propio Einstein calificó en su momento como
‘revolucionario’, aquel titulado ‘Sobre un punto de vista heurístico concerniente
a la producción y transformación de la luz’, en el que proponía la propagación
de la luz a partir de la existencia de ‘un número finito de cuantos de energía
localizados en puntos del espacio que se mueven sin dividirse y solo pueden ser
absorbidos o generados como unidades completas’. El nuevo planteamiento de
Einstein suponía cuestionar la validez ilimitada de la teoría de la luz de Maxwell,
que se basaba en una distribución continua de la energía del campo electromagnético. Maxwell, por quien Einstein sentía un enorme respeto intelectual,
había sido capaz de formalizar matemáticamente gran parte de los avances que
en la descripción de la electricidad y magnetismo se habían producido durante el siglo XIX, convirtiéndose en uno de los gigantes históricos de la física. El
artículo de Einstein era por tanto una forma de rizar el rizo, de complementar
y ampliar los trabajos de Maxwell, que eran ya reconocidos como uno de los
grandes hitos en la historia de la física.
Unos años más tarde, en 1916, los cuantos de luz de Einstein se transformaron
en auténticas partículas cuando él mismo propuso que estos cuantos no solo
intercambiaban energía con la materia sino también cantidad de movimiento en
una dirección determinada. Desde entonces, hemos aprendido a convivir con la
enrevesada naturaleza de la luz, cuya descripción exige en ocasiones considerar
que es una onda y en otras que es una partícula. Es la dualidad onda-corpúsculo. Diez años después, en 1926, las partículas de luz recibieron su bautismo y
adquirieron el nombre de fotones gracias a un oficiante inesperado, el químico
americano Gilbert N. Lewis, uno de los científicos que más veces estuvo cerca
de obtener el Premio Nobel (se dice que hasta 35) sin llegar a conseguirlo nunca.
Lewis acuñó por primera vez la palabra fotón en una carta a la revista Nature,
aunque su idea sobre las partículas de luz difería ligeramente de la de Einstein.
Pero el término fotón pervivió.
El artículo de Einstein del año 1905 es la primera descripción teórica del efecto
fotoeléctrico en términos de la absorción de fotones. En un proceso fotoeléctrico, un sistema cualquiera absorbe luz y utiliza esta energía absorbida para
excitar electrones que pueden ser recogidos en el exterior. Dicho de otra forma,
el fotón, la luz, desaparece y, en una especie de sacrificio generoso, su energía
sirve para liberar un electrón. El hecho de que la energía aportada por la luz
tenga que ser absorbida en forma de paquetes, de cuantos de energía bien
definida, y no en la forma continua derivada de las ecuaciones de Maxwell, ha
supuesto, como bien planteaba el propio Einstein, una verdadera revolución en
la descripción de la interacción entre luz y materia.
Recogiendo electrones
El efecto fotoeléctrico o, de otra forma, el proceso de fotoemisión electrónica
es la base a partir de la cual se han desarrollado infinidad de técnicas experimentales de caracterización y espectroscopía, tanto de átomos y moléculas en
fase gaseosa como de superficies, nanoestructuras y sólidos. En todas estas
técnicas, la luz funciona como una sonda, como una herramienta que utilizamos
para extraer información, en este caso en forma de electrones, de nuestro sistema. Uno de los aspectos más interesantes de las técnicas de fotoemisión es
que, dependiendo de la energía del haz que hacemos incidir sobre la muestra,
podemos tener acceso a informaciones muy distintas sobre los sistemas que
estudiamos.
“Hemos aprendido a convivir con
la enrevesada naturaleza de la luz,
cuya descripción exige en ocasiones
considerar que es una onda y en otras
que es una partícula”
Desde un punto de vista general, los electrones que conforman la materia pueden estar muy ligados (necesitamos mucha energía para arrancarlos) o poco
ligados (necesitamos menos energía). Son estos últimos, los electrones poco
ligados, los denominados de valencia, los electrones relevantes en los procesos
Figura 2. Densidad electrónica inducida en función de la distancia y el tiempo cuando introducimos una partícula cargada en un medio metálico. El apantallamiento se produce en
tiempos ultrarrápidos, por debajo del atosegundo [A. Borisov et al. Chem. Phys. Lett. 387
95 (2004);
21
Figura 3. Átomos adsorbidos pueden transferir electrones a la superficie después de ser excitados con luz. [R. Díez Muiño et al. PNAS 108, 971 (2011)]
químicos. Son los que forman los enlaces y por tanto los responsables de que
distintos átomos se junten o separen, una especie de ‘pegamento’ de la materia. Para extraer estos electrones de valencia de cualquier material necesitamos
luz de frecuencia ultravioleta. Las técnicas de fotoemisión a partir de radiación
ultravioleta, por tanto, nos proporcionan acceso a las propiedades electrónicas
y químicas de los materiales y, de hecho, han sido la herramienta fundamental
para acceder de forma experimental a la distribución periódica de los electrones en los sólidos cristalinos y para verificar la precisión de la descripción de
estas propiedades en términos de su estructura de bandas.
Distinto es el caso de los electrones más ligados, aquellos que están más cercanos a los núcleos de los átomos y se sienten fuertemente atraídos por la carga
de estos últimos. La extracción de estos electrones exige radiación de mayor
energía, en la zona de los rayos X del espectro electromagnético. Una de las ventajas de fotoemitir estos electrones es que su energía de ligadura está definida
de forma más precisa y es, en general, específica de cada átomo, similar a una
huella dactilar. El espectro de fotoemisión por rayos X de un material es así una
especie de identificación por huellas dactilares de los materiales, una potente
herramienta de análisis químico.
“La aparición de nuevas fuentes láser
con pulsos extremadamente cortos
nos ha permitido adentrarnos en el
mundo ultrarrápido, en la química
del femtosegundo y en la física del
atosegundo”
En general, de la misma forma que en las películas americanas de cine clásico
los heroicos protagonistas que se escapan de infernales prisiones encuentran
todo tipo de dificultades y peleas antes de llegar a su destino, los electrones
fotoemitidos, en su huida hacia el detector experimental que los espera con
los brazos abiertos, encuentran otros átomos de material y sufren desvíos y
colisiones. Algunos de estos electrones, los menos afortunados, no cumplen su
objetivo final de escapar del sistema pero los más exitosos, los que sí lo consiguen, son testigos valiosísimos, si sabemos preguntarles adecuadamente, de
la conformación estructural del lugar del que vienen. La difracción de fotoelectrones y, en particular, de aquellos electrones que provienen de las capas más
internas de un material y son excitados con rayos X, es por tanto una excelente
herramienta para estudiar las propiedades estructurales de sólidos, superficies
y nanoestructuras. El desarrollo de herramientas teóricas basadas en la simulación de las colisiones elásticas experimentadas por los electrones en su salida
hacia el vacío partiendo de determinadas geometrías y la comparación de los
resultados así obtenidos con la evidencia experimental es una fantástica puerta
de acceso a la información estructural.
Variar la energía de la luz incidente nos permite por tanto seleccionar el tipo
de información que podemos extraer de un determinado sistema. Podemos
acceder a sus propiedades electrónicas, químicas o estructurales. Pero las propiedades de coherencia o incoherencia de la luz incidente y la selección de los
tiempos en los que enviamos pulsos de luz nos permiten también acceder a
información desde un punto de vista totalmente distinto. La aparición de nuevas fuentes láser con pulsos extremadamente cortos y el desarrollo de técnicas
experimentales basadas en ellos nos ha permitido adentrarnos en el mundo
ultrarrápido, en la química del femtosegundo y en la física del atosegundo. Un
femtosegundo es la mil billonésima parte de un segundo y un atosegundo mil
veces menos, la trillónesima parte de un segundo. Para hacernos una idea de
las dimensiones de las que estamos hablando, en las que es fácil perderse: la
proporción entre un atosegundo y diez segundos es aproximadamente la misma que entre diez segundos y la edad del Universo. Entre 1964 y 2001, el año en
que se generó el primer pulso laser de duración inferior al femtosegundo, la duración de estos pulsos se ha reducido en tres órdenes de magnitud. Nos hemos
garantizado así el acceso a una escala temporal totalmente nueva que estamos
comenzando a explorar con un nivel de detalle impensable en el pasado. El salto
cualitativo que supone acceder a la escala del atosegundo en el estudio de las
propiedades electrónicas es espectacular, parecido al salto que supuso el paso
de la fotografía fija al cine. En la actualidad, es posible obtener ‘películas’ de la
dinámica molecular con resolución espacial inferior al Angstrom y resolución
temporal inferior al femtosegundo.
INVESTIGACIÓN EN VIVO - Mehr Licht!
Figura 4. La variación en las propiedades ópticas de las nanoestructuras dependiendo de su forma, composición, tamaño o estructura puede convertirlas en fantásticos sensores químicos [ver por
ejemplo M. Ameen Poyli, J. of Phys. Chem. 3, 2556 (2012)].
La luz no solo nos da una llave de entrada genérica al mundo del atosegundo;
en realidad nos abre las puertas a varios submundos distintos, cada uno de
ellos con sus peculiaridades propias. La fotoemisión permite avanzar en la comprensión de las propiedades electrónicas y la estructura de bandas de sistemas
cristalinos macroscópicos, de superficies, pero también de átomos y moléculas,
o de nanoestructuras. Nos permite estudiar el enorme rango de distancias en
que se mueve la materia que conforma nuestro mundo, desde la física atómica
y molecular hasta la física de materia condensada. Y en muchos de estos casos, además, nos adentra en el universo cuántico, un mundo en el que nuestra
intuición macroscópica deja de ser válida y los fenómenos físicos y químicos
resultan, cuando menos, sorprendentes. Vamos a proporcionar a continuación
algunos ejemplos de ello, haciendo un recorrido progresivo desde sistemas que
podemos considerar grandes (sólidos y superficies) hasta aquellos de tamaño
inferior (nanopartículas y moléculas).
“En medios metálicos típicos, el
apantallamiento se produce en
una escala de tiempos inferior al
femtosegundo”
Creando cuasipartículas
El acceso experimental a tiempos ultracortos en la interacción de luz y materia ha permitido no solamente dar muchas respuestas sino también plantear
nuevas preguntas y avanzar en territorios que hasta ahora eran únicamente
campo de especulaciones teóricas. Un ejemplo de esta situación es el tiempo
que tarda una carga en apantallarse en un medio metálico, uno de los fenómenos más complejos en física de la materia condensada. Cuando una carga
eléctrica aparece en un metal, los electrones de este último reaccionan a su
presencia modificando su posición, tratando de neutralizar su efecto y haciendo
desaparecer el campo eléctrico a largas distancias. Este fenómeno, conocido
como apantallamiento, es aún más difícil de describir cuando la carga externa
está moviéndose y la densidad electrónica del metal tiene que reacomodarse a
cada instante para contrarrestar a la partícula viajera. La imagen más habitual
para visualizar de manera simplificada la dinámica de esta carga y su densidad
electrónica de apantallamiento sería la de una lancha motora desplazándose
por el agua y creando en su derredor y, principalmente, en su parte posterior,
una estela de agua de naturaleza ondulatoria. Un electrón fotoemitido desde un
metal es un buen ejemplo de esta situación. El hueco de carga que deja detrás
de sí este electrón también acaba apantallándose y este proceso ha de tenerse
en cuenta para una interpretación precisa de los resultados experimentales de
muchas espectroscopías.
En su intento de simplificar la descripción de la carga externa más la nube de
densidad electrónica que le acompaña, los físicos de materia condensada agrupan a todo este conjunto y lo tratan como una ‘cuasipartícula’, una entidad distinta. Desde una perspectiva temporal, la pregunta obvia que surge es cuánto
tiempo tarda en crearse el apantallamiento dinámico de una carga, es decir,
cuál es el tiempo de creación de una cuasipartícula. La respuesta, basada tanto
en medidas de la termalización de electrones como en cálculos de primeros
principios, es que el apantallamiento y la aparición de efectos colectivos en el
sólido no aparecen instantáneamente sino que requieren un tiempo finito para
ser creados y que este tiempo depende además de la frecuencia de plasma
del medio. En medios metálicos típicos, el apantallamiento se produce en una
escala de tiempos inferior al femtosegundo. Es este por tanto un buen ejemplo de los nuevos conceptos que es necesario introducir en la descripción de
los fenómenos cuando exploramos territorios cualitativamente nuevos a partir
de mejoras técnicas. Hasta hace muy pocos años, podíamos considerar que el
apantallamiento de una carga era instantáneo. El acceso experimental a escalas
de tiempo inferiores al femtosegundo requiere incluir en la descripción del proceso efectos dinámicos. La evolución temporal, la dinámica en estos intervalos
de tiempo, adquiere protagonismo.
Recortando tiempos
Cuando contemplamos un objeto, nuestra percepción en realidad se limita a su
superficie. Lo que identificamos con la totalidad no es sino una realidad muy
parcial. O ni siquiera una realidad, como argüían los filósofos de la Grecia clá-
23
sica, a los que la existencia ontológica o no de superficies resultantes de dividir
un cuerpo en dos mitades les provocaba no pocos quebraderos de cabeza. Lo
que resulta intrigante es que esta dimensión externa de la materia no es solamente un mero recubrimiento sin relevancia, sino que muchas propiedades
físicas y químicas de los objetos dependen o están muy condicionadas por sus
propiedades superficiales. Las superficies son sistemas muy complejos, en los
que perdemos parte de la simetría que pueda tener el sólido y que están especialmente preparadas para interactuar con el medio externo. Por eso también
las superficies pueden ser funcionalizadas, es decir, pueden ser modificadas
para cambiar su interacción con el exterior y por tanto su función. No es casual
que existan sistemas biológicos, como el cerebro o las hojas de las plantas, cuyo
desarrollo evolutivo esté basado en aumentar la proporción entre superficie y
volumen. No es sino una forma de aumentar la funcionalidad, la actividad neuronal en el caso del cerebro o la actividad fotosintética en el caso de las hojas.
“Sabemos más sobre los acoplamientos
entre el movimiento de los núcleos de
los adsorbatos y el movimiento de los
electrones y somos capaces incluso
de conocer cuál es el tiempo que tarda
un electrón en ser transferido, en
‘saltar’ desde un átomo adsorbido en la
superficie hasta esta última”
las técnicas basadas en la fotoemisión o la fotoabsorción, jugó también un papel crucial en este desarrollo, convirtiéndose en el medio principal para obtener
información sobre las propiedades electrónicas de las superficies.
Cincuenta años más tarde, la ciencia de superficies se enfrenta a nuevas fronteras. Una de las más importantes es la descripción cuantitativa de la dinámica
electrónica en superficies. La fotoexcitación de los electrones presentes en la
superficie o en átomos y moléculas adsorbidos en superficies es una herramienta valiosísima para controlar, inducir o monitorizar procesos físico-químicos. Es
la base de la fotoquímica o fotofísica en superficies. Y, una vez más, una de las
claves está en los distintos ritmos o velocidades con los que se producen estos
procesos y en la competencia temporal entre ellos, como si de una competición
atlética se tratara.
Son distintas las técnicas experimentales que se utilizan para medir tiempos
mediante luz, pero una de las más sofisticadas en el caso de superficies es la fotoemisión de dos fotones, en la que se envía un primer pulso láser para excitar
la muestra, para inducir un cierto proceso electrónico, y poco después un segundo pulso láser, con un retraso temporal perfectamente determinado, para
comprobar el estado del sistema excitado. Gracias a estas técnicas o a variaciones sobre ellas y a los avances en paralelo en la descripción teórica de la dinámica electrónica, basados fundamentalmente en cálculos numéricos de primeros
principios, conocemos ahora los tiempos de vida de los electrones excitados en
superficies, sabemos más sobre los acoplamientos entre el movimiento de los
núcleos de los adsorbatos y el movimiento de los electrones y somos capaces
incluso de conocer cuál es el tiempo que tarda un electrón en ser transferido, en
‘saltar’ desde un átomo adsorbido en la superficie hasta esta última. Son unos
cientos de atosegundos, de nuevo una escala temporal inaccesible hasta hace
muy poco tiempo. Estos tiempos son distintos además en función de la relación
entre la magnetización de la superficie y el espín del electrón que salta. No menos importantes son los trabajos que se centran en estudiar la diferencia en los
tiempos de fotoemisión entre electrones provenientes de estados muy ligados
o de valencia en una superficie metálica, es decir, en ‘cronometrar’ en tiempos
de atosegundos la carrera entre dos electrones que escapan de una superficie.
Diseñando nanoestructuras
En los últimos quince años, ha aumentado exponencialmente el interés por los
sistemas de tamaño nanométrico. Las nanopartículas, los agregados, los sistemas de baja dimensionalidad en que los electrones están confinados en al
menos una de las dimensiones del espacio, todos ellos se han convertido en las
estrellas de muchos centros de investigación, además de aparecer de forma recurrente en medios de comunicación especializados y, de vez en cuando, incluso en los generalistas. En el mundo de la física, quizás el grafeno, representante
señero de la nanociencia, sea el único nombre que pueda competir con el bosón
de Higgs como protagonista mediático.
Figura 5. La luz permite emitir electrones desde moléculas diatómicas creando patrones de
interferencia que nos proporcionan información muy precisa sobre su estructura electrónica [(D. Akoury et al., Science 318, 949 (2007)]. IIustración de Till Jahnke, Goethe Universität de
Frankfurt, Alemania.
A finales de la década de 1960, el estudio de la ciencia de superficies se vio fuertemente impulsado por la confluencia de varios factores. El desarrollo de las
técnicas de ultra alto vacío y la mayor facilidad a la hora de conseguir muestras
de superficies cristalinas permitieron un mayor control sobre las propiedades
físico-químicas y las condiciones de conservación de los sistemas estudiados.
Por otra parte, desarrollos metodológicos relacionados con la teoría de muchos
cuerpos y, en particular, con la difracción de electrones ayudaron al desarrollo e
interpretación de los resultados de nuevas técnicas experimentales (Low Energy
Electron Diffraction, LEED, por ejemplo), idóneas para este campo. El resultado
de todo esto fue una auténtica explosión de actividad y generación de conocimiento en relación con las superficies de los materiales. La luz, o, de otra forma,
“Estamos utilizando la luz para analizar
el interior de los átomos, para aprender
sobre el movimiento de sus electrones
con resolución subatómica”
Uno de los motivos principales por los que los sistemas de tamaño nanométrico
han despertado este merecido interés es porque pueden considerarse como
un verdadero cruce de caminos. Las nanoestructuras están a medias entre la
física molecular y la física de estado sólido, compartiendo algunos conceptos
y metodologías con esta pero otros en cambio con aquella. Los sistemas de
tamaño nanométrico son así referencias ideales para estudiar cómo emergen
propiedades típicas del estado sólido en función del tamaño del sistema. Las
nanopartículas están también a medio camino entre la física y la química e incluso la biología. Este carácter multidisciplinar de la nanociencia es uno de sus
mayores atractivos desde el punto de vista de la investigación básica, pero no
hay que olvidar que es su inmenso potencial tecnológico el que ha contribuido
INVESTIGACIÓN EN VIVO - Mehr Licht!
igualmente a su actual desarrollo como disciplina. La variación de las propiedades electrónicas y ópticas de las nanoestructuras con su tamaño permite,
en principio, controlar y ajustar estas propiedades externamente. Modificar el
tamaño de una nanoestructura es así una manera de diseñar sus propiedades,
como si de trajes a medida se trataran.
La interacción de luz con nanopartículas es uno de los campos más activos de
la nanociencia y ha dado lugar a una actividad brillante, nunca mejor dicho, en
los campos de la nanofotónica y la nanoplasmónica. Hay muchos textos, probablemente más amenos que este, incluyendo algunos en esta misma revista,
en los que se repasa la espectacular actividad en estos campos, así que me
limitaré a señalar aquí que las excitaciones plasmónicas generadas por la luz en
las nanopartículas metálicas producen señales tan intensas y dependientes de
las propiedades específicas de los sistemas, incluyendo su forma y tamaño, que
las convierten en ideales para ser utilizadas como marcadores en técnicas de
diagnóstico médico o como sensores en la detección de distintos componentes
químicos, entre otras muchas aplicaciones.
“Es posible acceder experimentalmente
ahora mismo a la escala de tiempo
durante la cual se produce una
reacción química o se emite un electrón
fotoexcitado en una superficie, una
nanoestructura o una molécula”
Pero además de excitaciones colectivas o plasmones, la incidencia de luz sobre
nanopartículas también puede crear excitaciones electrónicas del tipo par electrón-hueco. El estudio del decaimiento o termalización de estas excitaciones en
función del tamaño de la nanopartícula es extremadamente útil para entender
el papel de efectos como el apantallamiento o la densidad de estados en las
colisiones entre electrones, que nos permitan optimizar su uso en el campo de
la fotoquímica. Estudios desde primeros principios y medidas de termalización
en nanopartículas metálicas muestran que los tiempos de vida de las excitaciones electrónicas son fuertemente dependientes de la localización espacial de
las excitaciones y que hay que alcanzar tamaños relativamente grandes para
recuperar el comportamiento que se encuentra en el estado sólido.
Rompiendo ladrillos
En este recorrido hacia sistemas cada vez más pequeños, llegamos por fin a los
ladrillos a partir de los cuáles construimos la materia, a los átomos y moléculas.
La luz, cómo no, ha jugado un papel crucial en los avances de la física atómica
y molecular, particularmente en las dos últimas décadas. El estudio de los procesos de fotoemisión en moléculas en fase gaseosa ha dado un salto cualitativo
en los últimos años gracias a la medición de espectros de moléculas orientadas
en el espacio y no promediadas sobre ángulos, como era habitual en el pasado. Esto es tanto como pasar de una perspectiva plana, unidimensional, a una
perspectiva completa, multidimensional. Y gran parte de este adelanto se debe
a una inteligente utilización del proceso de fotofragmentación molecular. Técnicas experimentales basadas en la medida en coincidencia temporal de la energía y dirección de cada uno de los constituyentes de una molécula, después de
disociarla mediante una excitación electrónica inducida con luz, nos permiten
obtener información precisa y preciosa sobre las especiales relaciones de interdependencia que existían entre estos constituyentes antes de la fragmentación.
La utilización de este tipo de técnicas combinada con la modelización teórica
de estos procesos ha llevado por ejemplo a estudiar de forma detallada la fragmentación total mediante luz de moléculas de hidrógeno y deuterio en sus elementos constituyentes (dos iones positivos más dos electrones) o los efectos de
interferencia en la fotoemisión de dos electrones en moléculas de hidrógeno,
en un proceso similar al que se produce en el experimento de las rendijas de
Young, uno de los diez experimentos más bellos en la historia de la física según
la revista Physics Today. En el caso de la molécula de hidrógeno, son los dos protones de la molécula los que juegan el papel de dos ‘agujeros’ emisores de electrones, solo que separados por una distancia extremadamente pequeña, muy
inferior al nanómetro. En su viaje hacia el detector, cada uno de estos dos electrones presenta un patrón de interferencia como si se tratara de una onda y no
de una partícula y hubiera sido emitido desde los dos centros al mismo tiempo.
Por otra parte y como hemos mencionado anteriormente, el cambio de milenio
vino acompañado de la aparición de intensos pulsos de luz ultracortos, de tan
solo unos pocos ciclos de duración, y que dieron lugar a la apertura de un campo nuevo, la física del atosegundo. Los primeros blancos a los que se dirigieron
estas nuevas armas investigadoras fueron átomos y moléculas y su primer objetivo fue diseccionar la dinámica electrónica en estos sistemas. En ocasiones,
los avances de la ciencia no nos permiten un momento de reposo, detenernos y
pensar sobre lo conseguido en perspectiva. En casos como este, merece la pena
hacerlo: estamos utilizando la luz para analizar el interior de los átomos, para
aprender sobre el movimiento de sus electrones con resolución subatómica.
Iluminando el futuro
Gracias en parte al desarrollo de sofisticadas técnicas experimentales, muchas
de ellas basadas en fuentes de luz láser, hemos conseguido avanzar espectacularmente en la comprensión de la dinámica electrónica en regiones de tamaño
muy pequeño, de orden inferior a la nanoescala. Hasta hace muy poco, estas
técnicas eran incapaces de obtener resoluciones temporales inferiores al femtosegundo, lo que nos impedía por ejemplo observar la dinámica electrónica en
el tiempo en que se producen las reacciones químicas. La obtención de pulsos
láser ultracortos ha cambiado radicalmente esta situación y ha permitido acceder al estudio de la dinámica electrónica que se produce en escalas de tiempo
del femtosegundo o incluso del atosegundo. Por tanto, es posible acceder experimentalmente ahora mismo a la escala de tiempo durante la cual se produce
una reacción química o se emite un electrón fotoexcitado en una superficie, una
nanoestructura o una molécula.
De forma atrevida y provocadora podríamos decir que todo es química, que la
química es la base de la vida y de la naturaleza. En última instancia, todas las
reacciones químicas están controladas por los electrones. Entender por tanto
las reglas que rigen el movimiento de los electrones y los tiempos en que se
producen estos movimientos (es decir, la dinámica electrónica), es avanzar un
paso más en la comprensión de nuestro mundo. La mejora, gracias a nuevas
técnicas basadas en la excitación con fotones, de la resolución temporal en el
estudio de la dinámica electrónica está llevando al electrón a transformarse, a
pasar de ser una celebridad en el campo de la fotografía a una auténtica estrella
cinematográfica. No es de extrañar por ello que el número de grupos, centros
de investigación y grandes instalaciones dedicados al estudio de la interacción
entre luz y materia sea enorme y siga creciendo. La reciente inauguración del
sincrotrón ALBA en Barcelona o la apertura prevista en Europa y Estados Unidos
de nuevas instalaciones basadas en los láseres de electrones libres (FEL, por sus
siglas en inglés) son buenos ejemplos de ello.
En ocasiones se especula con que, así como el siglo XX ha sido el siglo de los
electrones, el XXI pueda ser el siglo de los fotones. Independientemente de que
esta excesiva simplificación sea cierta o no, lo que sí parece muy probable es
que la luz va a estar muy presente en gran parte de los desarrollos científicos
tecnológicos de los próximos años. Retomando el simbolismo de la luz como
distintivo de conocimiento y belleza, podemos arriesgarnos a predecir que la
ciencia del siglo XXI va a ser extremadamente hermosa, entre otras cosas porque estará llena de luz y porque esta ampliará majestuosamente nuestro conocimiento de la materia. La luz, por tanto, sigue y seguirá cumpliendo este objetivo de rescatarnos de las sombras de nuestra ignorancia e iluminar el mundo
que nos rodea para su mejor comprensión. Solo tenemos que poner los medios
necesarios, como sociedad convencida de que el avance en el conocimiento
científico es una de las bases principales del progreso social, económico y ético,
para que el futuro nos traiga mehr Licht, mucha, pero que mucha más luz.
25
IVO
NV
NE
IGA
CIÓ
EST
INV
Nanoóptica: controlando
la luz en la nanoescala
Javier Aizpurua, Rubén Esteban, Pablo Alonso-González y Rainer Hillenbrand.
La localización de la luz en diversas nanoestructuras ha permitido superar los
límites de la óptica convencional, posibilitando un control sin precedentes de
diversos procesos optoelectrónicos. La comprensión de la interacción entre
la luz y la materia en la nanoescala sienta las bases de la generación, control,
y manipulación de haces de luz en espacios ínfimos, abriendo un nuevo
abanico de posibilidades tecnológicas. Entre otras, la nanoóptica permite
obtener imagenes nanoscópicas de nanopartículas y sustancias biológicas,
transmitir señal óptica de alta densidad en dispositivos, realizar termoterapia
contra células cancerígenas o mejorar las prestaciones de células solares.
La luz ha sido un elemento fundamental en nuestra civilización desde tiempos
inmemoriales. Por ello, 2015 ha sido reconocido como “año internacional de la
luz” por las Naciones Unidas para poner de relevancia la importancia cultural,
social, y tecnológica de la luz en nuestra sociedad actual. Asociada al ámbito de
lo místico desde las culturas más antiguas, se la relacionaba con los ciclos de la
vida, el bienestar, e incluso con la transcendencia de lo divino. Sin embargo, no
es hasta hace unos pocos siglos, que el hombre comienza a comprender la naturaleza de la luz y a utilizarla. La luz tiene multitud de implicaciones en nuestra
vida cotidiana, ya que establece una de las pautas más importantes en nuestra
Javier Aizpurua, es Profesor de Investigación en el
Centro de Física de Materiales (CFM), Centro mixto CSIC-UPV/
EHU, y asociado al Donostia International Physics Center (DIPC),
donde es responsable del grupo de Teoría de Nanofotónica.
Rubén Esteban, es Fellow Gipuzkoa en el Donostia International Physics Center (DIPC).
relación con el mundo exterior, por medio de nuestros sensores biológicos en
la retina. Sin embargo, más allá de esta necesidad biológica humana para relacionarse, la luz también aporta una dimensión tecnológica fundamental ya que
constituye un medio de propagación de información (paquetes de luz) rápido,
limpio, y muy manejable, así como una herramienta muy valiosa para sondear
las propiedades de la materia. Diferentes grupos de investigación en el País Vasco contribuyen actualmente al esfuerzo de generar, controlar y manipular la
luz en dimensiones extremadamente pequeñas, del orden del nanómetro, en
lo que se denomina genéricamente nanoóptica. El campo de la nanoóptica o
Pablo Alonso-González, es investigador post-doctoral del grupo de Nanoóptica del CIC nanoGUNE.
Rainer Hillenbrand, es Profesor de Investigacion Ikerbasque en nanoGUNE, donde lidera el grupo de Nanoóptica, y
Joint Professor en la UPV/EHU.
INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala
nanofotónica está experimentando un enorme desarrollo debido a los avances
tecnológicos que ofrece en ámbitos tan dispares como la microscopía, la bioquímica, las ciencias de materiales, la medicina, la fotovoltaica, o la ingeniería de
telecomunicaciones, entre otros.
Un avance fundamental para entender los secretos de la naturaleza de la luz
ocurre en el año 1865, cuando J. Clerk Maxwell postula las ecuaciones de los
campos electromagnéticos que llevan su nombre y ponen de manifiesto la naturaleza ondulatoria de la luz. De acuerdo con estas ecuaciones, la luz está constituida por una evolución espacial y temporal de campos eléctricos y magnéticos
que se retroalimentan en su propagación. Como toda onda, la luz puede ser
caracterizada por una magnitud característica denominada longitud de onda, λ,
que da cuenta de la distancia entre dos crestas sucesivas. La longitud de onda
de la luz que perciben los sensores en nuestra retina abarca un rango entre los
400 nanómetros y los 750 nanómetros (1 nanómetro=10-9 metros), y está asociada a los distintos colores que distinguimos: el rojo hacia los 750 nm y el violeta hacia los 400 nm. La luz presenta una longitud de onda mucho más pequeña
que otras ondas habituales tales como olas u ondas de presión que dan lugar
a los sonidos. Otras ondas electromagnéticas que presentan mayor o menor
longitud de onda que la luz visible corresponden a luz infrarroja y ultravioleta
respectivamente, y pueden ser detectadas por diversos dispositivos tecnológicos. Otro rasgo notorio de la luz es su velocidad de propagación, que es de unos
300.000 Km/s en el vacío, la velocidad más rápida posible para la transferencia
de energía y de información.
“La óptica no ha escapado a las grandes
oportunidades que le ha brindado la
nanotecnología y se ha beneficiado
enormemente de ellas”
componentes micrométricos de células y estructuras materiales. Sin embargo,
a finales del siglo XX, y de manera más intensa durante el comienzo del siglo
XXI, la nanotecnología ha conseguido desarrollar métodos de fabricación que
permiten obtener estructuras de tamaño nanométrico que abren nuevas posibilidades en multitud de campos de interés tecnológico. La óptica no ha escapado a las grandes oportunidades que le ha brindado la nanotecnología y se ha
beneficiado enormemente de ellas. La fabricación de estructuras de unos pocos
nanómetros permiten localizar la luz por debajo del límite de difracción. Esta
localización especial se consigue gracias al papel que juegan los electrones de
las nanoestructuras que intercambian energía con la luz incidente. Los metales
como el oro o la plata ofrecen una de las posibilidades más interesantes para
obtener una localización de luz por debajo de la longitud de onda, gracias al mecanismo de acoplo de luz con los electrones libres de los metales, que tienen la
capacidad de oscilar colectivamente cuando son excitados por luz, creando una
excitación denominada plasmón de superficie. Durante un tiempo extremadamente breve, de unos pocos femtosegundos (10-15 segundos), la energía de la
luz queda atrapada en la nanoescala, como “contenida” en la nanopartícula en
forma de pseudo-luz. Pasados unos pocos ciclos ópticos, ésta se convierte en
otra forma de energía (calor) o se reemite de nuevo como luz al vacío, de donde
venía. De manera más específica, cuando las excitaciones de los electrones se
producen en una nanoestructura metálica, las oscilaciones de la densidad de
carga se localizan en la interfase de las nanoestructuras, creando plasmones de
superficie. Los plasmones de superficie se pueden entender como una oscilación de una “sopa” de electrones sobre el fondo formado por los núcleos de los
átomos, a modo de olas en el agua. En superficies metálicas de gran extensión,
los plasmones se propagan a lo largo de éstas, de manera similar a como lo
hacen las olas sobre el mar, pero en este caso en la nanoescala. También es
posible atrapar la oscilación de los electrones (plasmón) en partículas metálicas,
que pueden ser mucho más pequeñas que la longitud de onda de la luz que las
ha excitado. El proceso de excitación de un plasmón en una nanopartícula y, por
La tecnología asociada al control de la luz ha sufrido un desarrollo paralelo al
de la comprensión de su naturaleza. La utilización de lentes para aumentar el
tamaño de un objeto ha sido desarrollada desde la edad media. Sin embargo,
estas lentes sufren importantes limitaciones para manipular y focalizar la luz
que las atraviesa debido a una propiedad fundamental: como cualquier otra
onda, la luz sufre un fenómeno físico denominado difracción, que hace que ésta
se desvíe al chocar contra un objeto, como por ejemplo una esquina, una apertura, o una guía de ondas. El fenómeno de difracción de una onda puede ser
visualizado fácilmente en la propagación de una ola al incidir sobre una esquina
o contra un objeto, los cuales producen nuevos frentes de olas y desviaciones
de la dirección de propagación de la ola original, en forma de nuevas olas que se
propagan en múltiples direcciones. De la misma manera, la difracción también
impide utilizar lentes para localizar la luz a distancias mucho más pequeñas que
la mitad de la separación entre dos crestas de la onda (la mitad de la longitud
de onda; ≈λ/2), imponiendo el denominado límite de difracción, tal y como se
aprecia en la Figura 1(a). En otras palabras, la luz no se deja “atrapar” fácilmente,
sino que escapa y rebota cuando se la intenta “cazar”. Este comportamiento
supone un obstáculo para poder acceder con luz a objetos menores que la longitud de onda utilizada, y por tanto, impone un límite a la resolución óptica.
En 1873, Ernst Abbe desarrolló su teoría de los límites de la resolución de los
microscopios y estableció que el tamaño que podían resolver los mismos, D,
venía dado por la fórmula D=λ/(2nsinα), donde λ es la longitud de onda de la
luz, n el índice de refracción del medio, y α es el ángulo de semi-apertura del
objetivo del microscopio. En la práctica, el límite de difracción hace que no se
puedan diferenciar los detalles de objetos menores que aproximadamente la
mitad de la longitud de onda mediante óptica convencional. En el caso de la luz,
la resolución se limita, por tanto, a unos pocos cientos de nanómetros, es decir,
algo menos de un micrómetro.
Durante más de un siglo, las limitaciones impuestas por la difracción han supuesto una barrera para el desarrollo de diferentes tecnologías ópticas. Por
ejemplo, la señal óptica ha sido transportada en guías de fibra de dimensiones de micrómetros, y los microscopios ópticos sólo conseguían acceder a los
Figura 1. (a) Localización de la luz mediante óptica convencional: una lente focaliza un haz
de luz en dimensiones (D) de la mitad de la longitud de onda λ. (b) Localización de la luz por
debajo del límite de difracción en nanoóptica gracias a la acción de una nanopartícula metálica de tamaño mucho menor que la longitud de onda (D<<λ/2).
27
Figura 2. Nanoantenas ópticas comunes utilizadas en nanoóptica, normalmente fabricadas con oro: (a) nanodímero que produce localización y aumento de la señal óptica en el hueco entre las
dos partículas, (b) nanobarra que permite una sintonización de la resonancia de antena en función de la longitud de la nanobarra con una dependencia lineal, y (c) nanopunta que localiza la luz en
el vértice para su utilización en el barrido nanoscópico.
tanto, el “atrapamiento” de la luz en la misma puede observarse esquemáticamente en la Fig. 1(b).
La localización de la luz por medio de nanoestructuras abre la óptica por primera vez al mundo de la nanoescala. La nanoóptica de plasmones consigue
no sólo batir el límite de difracción y localizar la luz en dimensiones minúsculas, que pueden ser incluso del tamaño de unos pocos átomos, sino también
aumentar de manera espectacular la intensidad de la misma en los alrededores de la nanopartícula. La localización es un fenómeno resonante, es decir,
ocurre únicamente para una determinada longitud de onda que depende de
multitud de factores: el material metálico específico, el tamaño, la forma de las
nanopartículas, el entorno en que se sitúan, así como la interacción con otras
nanopartículas cercanas. Por este motivo, a estas partículas metálicas se les conocen con el nombre de nanoantenas ópticas ya que actúan como dispositivos
resonantes muy eficientes para recibir la luz incidente de un color específico, así
como también para emitir eficazmente, y en forma de luz, la energía asociada
a los plasmones hacia un detector. La comunidad de la nanoóptica junto a la
de química sintética y la ingeniería de nanofabricación han diseñado, creado
y caracterizado multitud de nanoantenas ópticas entre las que caben destacar
las nanobarras, las nanocáscaras, los nanoanillos, las nanoestrellas, los nanodímeros, o las nanopuntas, entre otras. En la Figura 2, se muestran varios ejemplos de nanoantenas típicamente estudiadas y empleadas en nanoóptica. De
izquierda a derecha, se muestran (a) un dímero de nanopartículas que localiza
el campo entre las dos nanopartículas para producir un aumento de la luz más
eficaz, (b) una antena lineal tipo λ/2 formada por una nanobarra que puede
sintonizar la resonancia de la luz desde el visible hasta el infrarrojo, y (c) una
estructura de nanopunta que localiza la luz en su vértice y es comúnmente utilizada en microscopías y espectroscopias ópticas a modo de nanolinterna que
barre distintas muestras.
se han convertido en posibles alternativas para mejorar un amplio abanico de
tecnologías. A continuación describimos con cierto detalle algunas de estas posibilidades, haciendo énfasis en la investigación realizada en nuestros grupos
en Donostia. Nuestro trabajo combina esfuerzos tanto teóricos como experimentales. El grupo de Teoría de Nanofotónica del Centro de Física de Materiales (CFM) y la fundación Donostia International Physics Center (DIPC), en San
Sebastián, ha desarrollado durante los últimos años una línea de investigación
sobre teoría y simulación de las propiedades ópticas de nanoantenas similares
a las descritas en la Figura 2, así como sobre su aplicación tecnológica. Este
“La fusión de modelos clásicos y
cuánticos permite estudiar conceptos
punteros en nanoóptica en la frontera de
la optoelectrónica”
Estas nanoestructuras pueden servir para localizar la luz de un cierto color, en
una región específica, o para emitir la energía de manera determinada [1]. La
libertad para “sintonizar” las propiedades ópticas a la carta suponen una de las
grandes ventajas de la nanoóptica basada en plasmones, al permitir diseñar las
estructuras adecuadas para cada objetivo concreto. De hecho, los plasmones
Figura 3. Imágenes ópticas del campo eléctrico local de partículas de Níquel de 90 nm de
diámetro, en las que se muestran los dos lóbulos típicos de los dipolos de cada partícula [3].
Estas imágenes son obtenidas con un microscopio s-SNOM que supera el límite de difracción gracias a la localización de la luz en la punta del microscopio.
INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala
desarrollo se ha realizado mediante una descripción clásica de los plasmones
a partir de las ecuaciones de Maxwell, a las que se han añadido las complejas
interacciones de los electrones debidas a la Mecánica Cuántica, (la teoría física
desarrollada a comienzos del siglo XX que describe la dinámica de los objetos
microscópicos a través de sus funciones probabilísticas). La fusión de modelos clásicos y cuánticos permite estudiar conceptos punteros en nanoóptica en
la frontera de la optoelectrónica. Entre otros, propiedades como el perfil de la
densidad electrónica cerca de las superficies de las nanoestructuras, la posibilidad de transferencia de cargas entre partículas separadas por pequeñas distancias (tuneleo cuántico), o la descripción atomística de las estructuras metálicas
abren nuevos campos para explorar los límites de la localización de la luz en
nanoantenas ópticas [2].
“Gracias a la nanoscopía óptica se
obtienen e interpretan imágenes de
nanomateriales y nanoestructuras con
resolución por debajo de la longitud de
onda, nunca logradas anteriormente”
Como primer ejemplo de aplicación de la nanoóptica, destacaremos la utilización de las nanoantenas como sondas para mejorar la resolución en microscopía óptica: tal y como se ha mostrado esquemáticamente en la Figura 2(c), al
iluminar una nanoestructura metálica puntiaguda con una determinada longitud de onda, la luz puede quedar “atrapada” en la punta que actúa como una
sonda nanoscópica a modo de nanolinterna con capacidad para iluminar un
espacio muy reducido. Estas sondas también pueden servir para detectar la luz
ya presente en la proximidad de una estructura nanométrica. De esta manera,
es posible obtener información óptica local de estructuras de tamaño mucho
menor que las obtenidas con métodos de microscopía óptica convencionales.
El grupo de Nanoóptica del CIC nanoGUNE de San Sebastián ha desarrollado al
límite esta técnica, denominada microscopía óptica de barrido de campo cercano basada en la difusión de la punta (s-SNOM por su acrónimo en inglés). Gracias a la técnica de s-SNOM, el grupo de nanoGUNE ha obtenido e interpretado
imágenes de nanomateriales y nanoestructuras con resolución por debajo de
la longitud de onda, nunca logradas anteriormente. Como ejemplo, la Figura
3 muestra la imagen de unas partículas de níquel cuya respuesta local (luz del
campo cercano) es medida por la punta nanométrica del microscopio s-SNOM.
La localización de la luz en zonas de unos pocos nanómetros puede observarse
en estas partículas de níquel de 90 nm de diámetro que son iluminadas con luz
de 633 nm. Si se utilizara un microscopio óptico convencional, la imagen de cada
nanopartícula sería una mancha difusa y homogénea en la que no se distinguiría estructura alguna. Mediante el barrido óptico del microscopio s-SNOM, la
estructura de campo local en cada nanopartícula de níquel, compuesta por dos
lóbulos en los que se localiza la luz, es claramente discernible, con una resolución que ronda los 20-30 nm, es decir, veinte veces más pequeña que la longitud
de onda utilizada para la iluminación. La nanoóptica, por tanto, nos “abre los
ojos” al mundo nanométrico, permitiendo acceder a una nueva frontera de la
información óptica que estaba vetada anteriormente.
“Gracias al advenimiento de la
nanoóptica de plasmones, la señal óptica
puede ser “contenida”, manipulada y
transportada en soportes materiales de
tamaño mínimo.”
Para obtener aún más información de una muestra por medios ópticos, una
opción ampliamente utilizada es la espectroscopia. Esta técnica consiste en medir la respuesta óptica de una muestra (por ejemplo una proteína, un virus, la
región de un material, etc.) en función de la longitud de onda de un haz de luz
incidente, obteniendo de esta manera una “firma” única de los diferentes com-
Figura 4. Imagen infrarroja de complejos proteínicos aislados con una resolución mejorada
entre 100 y 1000 veces comparada con la microscopía infrarroja convencional
. (a) Ilus-
[4]
tración de la luz infrarroja iluminando la punta del microscopio de campo cercano sobre
el complejo proteínico, que muestra el funcionamiento de la espectroscopia infrarroja por
transformada de Fourier en la escala nano (nano-FTIR). Esta técnica permite visualizar e
identificar nanomuestras, tales como los complejos proteínicos de la imagen. (b) Imagen de
la topografía (mapa de altura) de tres nanopartículas. (c) Imagen de absorción infrarroja de
las tres partículas que revela que sólo dos de ellas son complejos proteínicos.
puestos químicos de la muestra, que consiste en una serie de picos de dicha
respuesta, y que sirve para identificarla. Pese a sus muchas ventajas, la espectroscopia encuentra a menudo dificultades para detectar cantidades muy pequeñas de un producto o para obtener información individual sobre moléculas
separadas por distancias nanométricas. Al localizar y aumentar la luz en la nanoescala, la nanoóptica permite superar los límites convencionales, ofreciendo
nuevas posibilidades para diferenciar moléculas muy próximas, así como para
aumentar la intensidad de la señal proveniente de la muestra. El grupo de Teoría de Nanofotónica del CFM y DIPC se ha dedicado desde hace años al estudio y
aplicación de técnicas de espectroscopia que utilizan resonancias plasmónicas.
Entre estas técnicas podemos destacar la “Espectroscopia Raman Aumentada
por Superficie” y la “Espectroscopia de Absorción Infrarroja Aumentada por Superficie“ (conocidas por sus acrónimos en inglés como SERS y SEIRA respectivamente). Estas técnicas no sólo son útiles para detectar pequeñas cantidades de
moléculas, sino que pueden llegar a servir para estudiar el desarrollo temporal
29
riales de tamaño mínimo, lo cual permite obtener una densidad de dispositivos
muy elevada. Sin embargo, los metales típicamente utilizados en plasmónica,
tales como oro o plata, presentan pérdidas de energía considerables que conllevan una rápida pérdida de la información sin permitir una propagación de largo
alcance de la señal óptica. Por este motivo, existe un gran interés en encontrar
nuevos materiales que aúnen las propiedades de nanolocalización y aumento
de la densidad de energía provista por los metales, junto a una mayor distancia
de propagación. Recientemente, se ha observado que capas de carbono de un
átomo de grosor, comúnmente denominadas grafeno, permiten la excitación
de electrones libres que generan plasmones de superficie con pocas pérdidas,
los cuales ofrecen la posibilidad de atrapar y manipular luz en la nanoescala.
Esta capacidad de confinamiento podría ser utilizada en el futuro para el desarrollo de nuevos sensores biológicos ultrasensitivos o dispositivos de tratamiento de la información ópticos. La estructura de este tipo de materiales se
representa en la Figura 5, donde se muestra una representación gráfica de una
lámina de grafeno sobre la que se propaga un haz de plasmones (en rojo) que
ha sido estimulado por una antena de oro (en amarillo) dispuesta sobre el grafeno. Al pasar por una doble lámina de grafeno que forma un prisma de escala
atómica (átomos coloreados en azul claro), el haz de plasmones es refractado
de la misma manera que lo hace la luz convencional cuando ésta pasa a través
de un prisma. Este esquema da una idea de lo robusta que resulta la plataforma
material de grafeno para la manipulación de señal óptica en la nanoescala.
“La capacidad de los plasmones de
grafeno para confinar la luz podría
ser utilizada en el futuro para el
desarrollo de nuevos sensores biológicos
ultrasensitivos o dispositivos de
tratamiento de la información ópticos”
Figura 5. Representación gráfica de la refracción de plasmones en grafeno (en rojo), excitados por una antena de oro diminuta (en amarillo), cuando éstos pasan a través de un prisma
de átomos de carbono (en azul claro) de un átomo de grosor. Las medias experimentales de
este fenómeno fueron obtenidas en el CIC nanoGUNE [5].
o espacial de reacciones químicas a partir de la evolución de uno o varios de los
productos involucrados. Así mismo, el grupo de Nanoóptica de nanoGUNE ha
desarrollado de manera pionera una técnica de imagen basada en nanoespectroscopia infrarroja (nano-FTIR) que permite el estudio de la composición química, estructura y propiedades electrónicas de nanomateriales y nanopartículas.
Como ejemplo, en la Figura 4 se muestra la identificación unívoca de complejos
proteínicos aislados mediante la obtención de su firma vibracional infrarroja.
Además de su utilización como sonda para obtener imágenes de objetos pequeños, la luz tiene un valor intrínseco por la información que contiene. La energía
y la polarización de los campos electromagnéticos, así como la forma espaciotemporal de un pulso de luz contiene información que puede ser transportada,
e incluso manipulada, a velocidades mucho más rápidas que las típicamente alcanzables mediante cables de cobre o en el microprocesador de un ordenador,
los cuales se basan en el control de los electrones. Como ejemplo de tecnología
óptica que ha revolucionado las comunicaciones modernas, las fibras ópticas
transportan enormes cantidades de información en forma de luz mediante estructuras dieléctricas cilíndricas de un grosor similar al de la longitud de onda
(micrométrico). Gracias al advenimiento de la nanoóptica de plasmones, la señal óptica puede ser “contenida”, manipulada y transportada en soportes mate-
Otros materiales de capas monoatómicas y con estructura química similar,
tales como el nitruro de boro, también presentan este tipo de propiedades, y
por tanto, abren nuevas opciones en el menú de materiales disponibles para
la nanoóptica. Las resonancias plasmónicas en este tipo de materiales suelen
darse en longitudes de onda del infrarrojo lejano o incluso en frecuencias de
terahercios, es decir, en longitudes de onda mayores que la de la luz visible.
Sin embargo, se atisba una convergencia hacia la obtención de resonancias en
longitudes de onda ópticas gracias a una optimización de los materiales y de las
estructuras geométricas de los mismos.
Los plasmones pueden resultar también de utilidad en muchos otros campos.
En medicina, por ejemplo, se pueden diseñar partículas metálicas funcionalizadas con un fármaco determinado que es inoculado en el paciente hasta llegar
a una zona de interés (zona tumoral, por ejemplo). Al ser iluminadas con la luz
inocua de un láser, las nanopartículas entran en excitación resonante, liberando el fármaco, y aumentando así su efectividad, al tiempo que disminuyen los
efectos secundarios del tratamiento. Otra posibilidad consiste en aprovechar
el aumento de temperatura asociado a la excitación de plasmones para acabar
con las células tumorales presentes en la proximidad de las nanopartículas por
calentamiento, en lo que se denomina termoterapia asistida por plasmones.
“La nanoóptica abre un nuevo abanico
de posibilidades tecnológicas sin
precedentes”
La nanofotónica también ofrece aplicaciones novedosas e innovadoras en el
campo de las energías renovables basadas en células solares. La capacidad de
las nanopartículas plasmónicas para absorber la luz de manera más eficiente
permite utilizarlas junto a materiales que presentan actividad fotovoltaica, de
manera que éstos recojan la luz y la transformen en energía eléctrica de manera
más eficiente. Otras aplicaciones en esta línea persiguen la conversión de la luz
INVESTIGACIÓN EN VIVO - Nanoóptica: Controlando la luz en la nanoescala
Interacción entre
la luz y materia
nanoestructurada
Análisis
bioquímicos
Mejora de
células solares
Sensórica
Espectroscopias
aumentadas por el
campo eléctrico
Nanoscopía de
campo cercano
Información
cuántica
NANOÓPTICA
Fotoquímica
Transmisión de
señal óptica
Optoelectrónica
en la nanoescala
Termoterapia
de células
cancerígenas
Metamateriales
Figura 6. Áreas de aplicación de la nanoóptica.
del sol en otras formas de energía, diferentes a la energía eléctrica. Por ejemplo,
de manera similar a la fotosíntesis en las plantas, el sol puede proporcionar la
energía necesaria para inducir una reacción química que produzca algún tipo
de combustible, como por ejemplo hidrógeno y oxígeno a partir del agua. El potencial de los plasmones para optimizar estas reacciones, y los procesos físicos
asociados a las mismas son objeto de intensa investigación en todo el mundo.
La nanoóptica también muestra un gran potencial en el campo de la información cuántica. Este campo supone un nuevo paradigma en la generación, transmisión, y manipulación de la información. Al contrario que la información clásica basada en bits, es decir, en códigos binarios en los que tenemos dos estados
bien definidos (0 o 1), la información cuántica tiene como unidad de información
el qubit, es decir, un estado cuántico que presenta una probabilidad de estar
entre los estados 0 y 1, y que abre nuevas posibilidades para desarrollar computación más rápida, y más segura, en las que la manipulación de información
consiste en el entrelazado de varios de estos qubits. Los plasmones pueden
actuar como intermediario de estos estados cuánticos en la nanoescala, y actualmente se está estudiando intensamente si esta intermediación permite el
transporte de la información sin deterioro de las propiedades de la misma. La
nanoóptica, por tanto, podría servir como catalizador de nuevas posibilidades
en información cuántica.
Todas las aplicaciones reseñadas aquí requieren un trabajo profundo de diseño
y comprensión de los procesos físicos involucrados, así como su explotación y
desarrollo en aplicaciones prácticas que mejoren la competitividad mediante la
generación de un conocimiento de vanguardia. El control de la luz en la nanoes-
cala, sin precedentes hasta hace unos pocos años, permite augurar un futuro
muy prometedor para la nanoóptica, y en esa tarea trabajan sin descanso el
grupo de Nanoóptica de nanoGUNE y el grupo de Teoría de Nanofotónica del
CFM-DIPC.
Referencias
[1] “Metal-nanoparticle plasmonics”, M. Pelton, J. Aizpurua
and G. W. Bryant. Laser Photon. Rev. 2, 136-159 (2008).
[2] “Revealing the quantum regime in tunnelling plasmonics”, Kevin
J. Savage, Matthew M. Hawkeye, Ruben Esteban, Andrei G. Borisov,,
Javier Aizpurua, and Jeremy J. Baumberg. Nature 491, 574 (2012).
[3] “Plasmonic nickel nanoantennas”, J. Chen, P. Albella, Z.
Pirzadeh, P. Alonso-Gonzalez, F. Huth, S. Bonetti, V. Bonanni,
J. Akerman, J. Nogues, P. Vavassori, A. Dmitriev, J. Aizpurua,
and R. Hillenbrand. Small 7, 2341-2347 (2011).
[4] “Structural analysis and mapping of individual protein complexes by
infrared nanospectroscopy”, I. Amenabar, S. Poly, W. Nuansing, E. H.
Hubrich, A. A. Govyadinov, F. Huth, R. Krutokhvostov, L. Zhang, M. Knez, J.
Heberle, A. M. Bittner and R. Hillenbrand. Nature Commun. 4, 2890 (2013).
[5] “Controlling graphene plasmons with resonant metal
antennas and spatial conductivity patterns”, P. Alonso-González,
A. Y. Nikitin, F. Golmar, A. Centeno, A. Pesquera, S. Vélez, J.
Chen, G. Navickaite, F. Koppens, A. Zurutuza, F. Casanova, L. E.
Hueso, and R. Hillenbrand. Science 344, 1369-1373 (2014).
31
Entorno CIC
Mesa de ideas 34
Visiones y reflexiones sobre la investigación desde
Euskadi y Aquitania con Igor Campillo, Helene Jacquet, Jacques
Tortos, Fernando Plazaola, Eric Papon y Antonio Porro.
Modera: Joseba Jauregizar
Proyectos de Investigación 40
Nuevos materiales de conversión ascendente.
Silvia Alonso-de Castro, Emmanuel Ruggiero y Luca Salassa
Microsensores basados en redes de nanoagujeros.
Josu Martínez-Perdiguero, Deitze Otaduy, Aritz Retolaza
y Santos Merino
Máquinas portables. Modelo de definición de sus límites
funcionales. Josu Eguia, L. Uriarte y A. Lamikiz
Euskadi en breve 54
AS
IDE
DE
SA
ME
Visiones y reflexiones
sobre la investigación
desde Euskadi y Aquitania
Mesa de ideas con Igor Campillo, Helene Jacquet, Jacques Tortos, Fernando
Plazaola, Eric Papon, Antonio Porro. Modera: Joseba Jauregizar.
La celebración en Burdeos del I Symposium Bordeaux-Euskampus fue el
marco perfecto para la celebración de la Mesa de Ideas de este número de
CICNetwork. Seis expertos de ambos lados de la frontera moderados por
el Director General de Tecnalia, Joseba Jauregizar, reflexionaron sobre el
pasado, el presente y, sobre todo, el futuro de la investigación en Euskadi y en
Aquitania. Un futuro que parece que pasa por incrementar la cooperación
entre los agentes de los dos territorios.
Desde que hace ya más de 20 años se creara el “Fondo Común para la Cooperación Aquitania-Euskadi”,la cooperación ha sido una realidad en la que han participado actores y entidades socioeconómicas de ambas regiones. Sin embargo,
hasta ahora esta cooperación no se ha revelado como una prioridad compartida, con escasa presencia de proyectos de carácter estratégico para la Euro-región, predominando las pequeñas iniciativas sin continuidad. El pasado mes de
noviembre se abrió una nueva etapa en esta relación con la firma del acuerdo
para la creación de un Campus Euro-regional de Excelencia Aquitania-Euskadi
entre las Universidades del País Vasco y Burdeos. CicNetwork quiso aprovechar
esta cita, con la celebración en Burdeos del primer simposio Bordeaux-Euskampus, para conocer de primera mano la opinión de académicos e investigadores
de ambos lados de la frontera sobre el pasado, el presente y, sobre todo, el
futuro de la investigación en los dos territorios.
La mesa, celebrada en el Anfiteatro de la Universidad de Burdeos, fue moderada por el Director General de Tecnalia, Joseba Jauregizar, y contó con la participación de: Eric Papon, Vicerrector de Innovación de la Universidad de Burdeos,
Jaques Tortos, Director de Nobatek, Helene Jacquet, Directora de Investigación,
Partenariados e Innovación de la Universidad de Burdeos, Fernando Plazaola,
Vicerrector de Investigación de la Universidad del País Vasco, Antonio Porro, Director de Desarrollo de Negocio División de Construcción Sostenible y creador
de la unidad Tecnalia-CSIC de Tecnalia e Igor Campillo, Director de Euskampus
Fundazioa.
Joseba Jauregizar:
En la actualidad hay en marcha un Plan Estratégico Aquitania-Euskadi 2014-2020
que define la Euro-región como un espacio de cooperación con una ciudadanía
conectada e interrelacionada, con empresas competitivas que trabajan y desarrollan iniciativas conjuntamente, y acceden cooperando a nuevos mercados, en
un territorio sostenible, atractivo y bien posicionado en los ejes de desarrollo
europeos, donde se despliega una red integrada de actores e infraestructuras
que mejoran su capital social. Todo ello, a través de una gobernanza abierta de
la cooperación orientada a la facilitación de proyectos concretos impulsados por
los actores de los respectivos niveles de actuación.
En este plan se formulan cuatro grandes retos: Ciudadanía euro-regional, economía del conocimiento, innovación y competitividad empresarial, territorio sostenible y gobernanza abierta. Con todo este escenario actual, la primera de las
MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania
La mesa, celebrada en el Anfiteatro de la Universidad de Burdeos, fue moderada por el Director General de Tecnalia, Joseba Jauregizar, y contó con la participación de:
Eric Papon, Vicerrector de Innovación de la Universidad de Burdeos, Jaques Tortos, Director de Nobatek, Helene Jacquet, Directora de Investigación, Partenariados
e Innovación de la Universidad de Burdeos, Fernando Plazaola, Vicerrector de Investigación de la Universidad del País Vasco, Antonio Porro, Director de Desarrollo de
Negocio División de Construcción Sostenible y creador de la unidad Tecnalia-CSIC de Tecnalia e Igor Campillo, Director de Euskampus Fundazioa.
preguntas es doble y está relacionada con el ámbito docente, ¿Qué actuaciones
de docencia compartida se han desarrollado entre Aquitania y Euskadi? ¿Qué
posibilidades se abren tras el acuerdo firmado entre las dos universidades?
Igor Campillo:
Entre la UPV-EHU y la Universidad de Burdeos tenemos en este momento registrados ya 6 programas conjuntos de postgrado, algunos con más universidades
involucradas: Máster en Recursos Marinos, Máster Europeo en Química Teórica,
Máster en Análisis Forense, un doctorado compartido en dirección empresarial
desde la innovación, Máster de Filología Vasca y el Máster de Ingeniería Mecánica y Fabricación.
De cara al futuro, queremos incidir en ampliar la oferta compartida en programas de postgrado entre las dos universidades, tanto en el número de masters
como en la variedad temática. Sin duda alguna, el convenio que acaba de firmarse entre las dos universidades abre las puertas a esta posibilidad.
Helene Jacquet:
El acuerdo entre las dos universidades es una fórmula perfecta para crear un
campus transfronterizo más fuerte, que otorgue más valor añadido en aspectos como la industria, ya que tenemos una tradición de investigación totalmente complementaria. Hay que crear una cultura de postgrado nueva para crear
una nueva cultura de investigadores a ambos lados de la frontera. El postgrado
prepara carreras internacionales que posibilitan el desarrollo de la economía.
Primero, hay que cooperar en los polos de excelencia como los de neurociencias, salud, medio ambiente o tecnología numérica, entre otros. De hecho, hemos priorizado hasta 11 polos de conocimiento y hemos dedicado medios para
propiciar espacios de encuentro entre científicos, para fomentar la cooperación
científico-tecnológica. Esperamos que este Simposio celebrado en Burdeos ayude a concretar y definir proyectos de investigación venideros.
Joseba Jauregizar:
Hablando de ese ámbito de colaboración científico-tecnología, me gustaría conocer qué actuaciones de cooperación se han llevado a cabo y cuál ha sido la
experiencia, además de desvelar los retos de futuro. Quizás podemos empezar
por Jacques Tortos que lleva más de 30 años desarrollando una colaboración a
ambos lados de la frontera. ¿Cómo ha sido esa colaboración transfronteriza?
Jacques Tortos:
Hace ya 10 años que nos juntamos profesionales de Aquitania y Euskadi para
imaginar un nuevo proyecto, un centro tecnológico transfronterizo que sirviera
de encuentro a profesionales que tenían ganas de avanzar en la cooperación a
ambos lados de los Pirineos. Se tomó entonces toda la experiencia de Tecnalia
para aprovechar su desarrollo y evolución en el mercado francés, de esta manera nació Nobatek, en un territorio favorable para este tipo de iniciativas con
gente que tenía ganas de avanzar y generar valor.
Desde entonces, en Nobatek hemos aprendido mucho y hemos desarrollado
varias colaboraciones con las dos universidades. Contamos en la actualidad con
más de 60 investigadores, con una relevancia alta de doctores, desarrollando
150 proyectos anualmente que demuestran el trabajo de esta última década. Sin
embargo, juntos podemos ir mucho más allá. El reto que se nos abre ahora para
las dos regiones es muy importante. Se pueden potenciar grandes proyectos
conjuntamente sobre todo, proyectos que ayuden a resolver los grandes desafíos europeos reflejados en el H2020. Juntos somos más fuertes, tenemos más
potencial, y el acuerdo entre las dos universidades nos ayuda en este camino.
De cara al futuro habría que potenciar nuevas formas de viveros para nuevas
empresas tecnológicas, de hecho ya estamos trabajando en esto. Esperamos
que estas iniciativas puedan aprovechar lo mejor de las universidades y de las
empresas para que, desde el inicio, estas start-ups tengan un mercado potencial
interesante en todos los países de la Euro-región.
35
Antonio Porro:
Antes de nada sí que me gustaría recordar la posición de centros como Tecnalia,
que es la de generar conocimiento y, al mismo tiempo, ser enlace entre las instituciones docentes y la industria. Esto nos obliga a generar unas capacidades de
intermediación hacia ambos lados, de forma que entendiendo las necesidades
de la industria y las de sus clientes o usuarios, podamos buscar respuestas en
el conocimiento, transformándolo en aplicaciones concretas. Así por ejemplo,
tenemos los alumnos del Máster de Recursos Marinos que desarrollan sus tesis
en Azti-Tecnalia y otras estaciones marinas, lo que les permite estar en contacto
con la realidad del mercado y se traduce en mejoras en la competitividad. Esto
también favorece los doctorados compartidos, mejorar el encaje de los nuevos
profesionales en las empresas y también a la vez que las empresas mejoran sus
conocimientos.
Por lo que respecta a la utilización del conocimiento, ya se han desarrollado más
de 40 proyectos conjuntos entre Euskadi y Aquitania en el seno de la corporación Tecnalia y en el H2020, que acaba de comenzar, ya tenemos otros dos. El
hecho de trabajar con dos campus de origen muy diverso nos obliga a tener en
cuenta diferentes sensibilidades y también nos permite ser más competitivos en
el mercado europeo.
““Hay que crear una cultura de
postgrado nueva para crear una nueva
cultura de investigadores a ambos
lados de la frontera”
Helene Jacquet
Fernando Plazaola:
Desde la EHU-UPV venimos trabajando con la Universidad de Burdeos pero quizás hasta ahora de una forma más individual. Las colaboraciones más oficiales
comenzaron con las co-tutelas entre ambas universidades, más de 20 en los últimos 4 años. Hemos tenido también algunos proyectos europeos y en esta convocatoria del H2020 nuestra participación activa ha aumentado hasta presentar
10 proyectos en las diferentes convocatorias. Ahora, el hecho de formalizar un
contrato bilateral nos permite poner a trabajar conjuntamente investigadores
de ambos lados de la frontera, les damos la oportunidad de conocerse, de crear
espacios de reflexión como este simposio que ha reunido a más de 300 investigadores. Una de las cosas importantes es que nos demos a conocer, que conozcamos las potencialidades de cada territorio para así aumentar la posibilidad de
desarrollar trabajos conjuntos.
Eric Papon:
Como ya se ha comentado antes, creo que este acuerdo entre las dos universidades es muy importante, un acuerdo como el firmado ahora debe favorecer
el intercambio de investigadores, las dobles titulaciones, las formaciones y los
proyectos conjuntos y evitar, en la medida de lo posible, los bloqueos administrativos. Hay que favorecer los intercambios en los diferentes niveles de docencia: investigación, masters, etc., así como seguir favoreciendo la movilidad de los
estudiantes de ambas universidades. Es muy importante, como también se ha
comentado antes, continuar con las co-tutelas.
Por otra parte, es necesario hacer coincidir nuestras ofertas formativas con
nuestras áreas de excelencia y garantizar la formación en estos campos. Otro
gran reto es la colaboración empresarial para acercar la formación de nuestros
estudiantes a las necesidades de la industria. En definitiva, se trata de generar
valor en nuestra Euro región).
Joseba Jauregizar:
Desde Tecnalia, Antonio Porro ha sido testigo de varios proyectos de colaboración entre las dos regiones y me gustaría preguntarle también cómo los ha visto
“En el futuro habría que potenciar
nuevas formas de vivero para nuevas
empresas tecnológicas”
Jacque Tortos
Joseba Jauregizar:
De vuestras intervenciones se deduce que ha habido una cooperación importante entre Euskadi y Aquitania, con numerosos proyectos en marcha, pero también da la sensación de que no se han aprovechado todas las potencialidades.
¿Cuáles han sido las barreras que no han posibilitado hasta ahora una colaboración más estrecha? ¿Creéis que este acuerdo que se ha firmado entre Euskadi y
Aquitania va a eliminar esas barreras?
Helene Jacquet:
Quizás la primera barrera que nos encontramos es que hablamos del concepto
de acuerdo o colaboración transfronteriza cuando en realidad, sería más acertado hablar de Euro-región. Entre Bilbao y Burdeos hay 3.30 horas en coche, una
MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania
distancia considerable y con no muy buenas conexiones. Por supuesto que compartimos cultura y continuidad del territorio, pero no hay que olvidar la distancia
y hay que hacer esfuerzos para minimizar este hándicap. Hay herramientas nuevas que desarrollar, la socialización es muy importante y tenemos experiencia
más que de sobra para trabajar conjuntamente, a través de las nuevas tecnologías de la información, y minimizar el impacto de la distancia.
Fernando Plazaola:
Efectivamente, la movilidad es una de las principales barreras pero creo que
también existía un desconocimiento mutuo y una falta de reconocimiento de
sinergias posibles en toda la cadena de valor. Tampoco podemos olvidar algunas barreras burocráticas y las propias dificultades de la movilidad del personal.
Por este motivo, este acuerdo y el simposio son muy importantes. Acercamos el
conocimiento de cada universidad, conocernos más para abrir y fortalecer más
posibilidades de colaboración.
son esas sinergias, cómo confluyen y en qué momento nos encontramos ahora?
Igor Campillo:
Estamos ahora en un momento que yo calificaría de apasionante. Ambas regiones han definido sus estrategias de especialización inteligente y es la hora de
ver cómo podemos sincronizarlas y comprobar también las oportunidades que
nos brinda el Horizon 2020 para crear nuevas colaboraciones pero también sin
olvidar otras iniciativas como el Erasmus Plus o el hecho de que en Euskadi se
está planteando un nuevo plan de ciencia, tecnología e innovación 2020.
En el pasado las colaboraciones existían pero eran mucho más dispersas. Con
el campus euro-regional, el trabajo que ya hemos hecho y, sobre todo, con el
convenio firmado hoy se dota a esta relación de un marco del que carecía antes.
Esto es muy importante porque los propios investigadores se sienten ahora parte de un proyecto más grande. Este marco nos permite estructurar las relaciones
para ser más competitivos y lanzar iniciativas propias que nos permitan dar respuesta a las llamadas de Europa.
Nos queda mucho por mejorar teniendo en cuenta de dónde venimos: hasta
ahora en Europa, en el período 2007-2014, en el FP VII, las universidades hemos participado conjuntamente en no más de 10 proyectos de escasa entidad.
Sin embargo, estamos avanzando y, sólo en los primeros meses de este año,
ya hemos presentado 11 propuestas conjuntas al Horizon 2020 y Erasmus+, en
temas tan variados como materiales, manufacturing, salud o cooperación entre
universidades y tejido productivo. En estas propuestas participan también las
empresas y los centros tecnológicos.
Es de destacar también que la forma en la que estamos yendo conjuntamente
a Europa está muy diversificada, respondiendo a las convocatorias de cambios
retos sociales, liderazgo industrial y con un buen número importante de proyec-
“Los tres pilares fundamentales
para responder al futuro en Europa
son el académico, el tecnológico y el
industrial y en este sentido, tenemos
que avanzar en nuestra colaboración
para dar nuevas respuestas”
Eric Papon
Joseba Jauregizar:
Vamos a dar un paso más y tratar de ver el futuro. Hoy en Europa y en cada uno
de sus territorios se están desarrollando las estrategias regionales de especialización inteligente RIS3 que tratan de potenciar las propias capacidades de cada
región para desarrollar sus ventajas competitivas en el ámbito científico, tecnológico y económico. Por otra parte, también se han desarrollado convocatorias
en el ámbito de las comunidades de conocimiento, los KICS (Knowledge and
Innovation Communities) europeos, desde salud o materiales hasta manufacturing. En este escenario habría que ver esas sinergias entre ambos territorios,
cuales son las estrategias de cada uno y los focos principales y analizar cómo
podemos sumar capacidades para desarrollar nuevos proyectos. También las
propias universidades, como ya nos comentaban antes, tienen identificados sus
polos de conocimiento y, sin duda, puede haber sinergias. ¿Cuáles creéis que
“Estamos creando ahora las
condiciones para que haya una autoorganización ordenada que nos permita
ser mucho más competitivos, tanto
para responder a las llamadas de
Europa como para lanzar iniciativas
propias”
Igor Campillo
37
tos en el marco de becas convocatorias Marie Curie, en particular de programas
conjuntos de doctorado.
Hay claros ejemplos en los que ya se demuestra el efecto tractor del campus
euro-regional como es el caso de los KICs (Knowledge and Innovation Communities) de envejecimiento activo y materiales en los que colaboramos, sobre todo
en el primero. En estas propuestas trabajamos las dos universidades y centros
tecnológicos como Tecnalia y otros aliados de la Universidad de Burdeos. Ahora
hay que ser capaces de capitalizar la experiencia ganada en la generación de las
propuestas y en la generación de este acuerdo para los KICs (Knowledge and
Innovation Communities) de la próxima convocatoria. De hecho, ya trabajamos
conjuntamente de cara al futuro en uno posible en manufacturing, compartido
entre las dos regiones.
hacer para resolver los retos tecnológicos de futuro en campos tan importantes para ambas regiones como, por ejemplo, el de manufacturing. Es el reto de
cómo van a ser las fábricas del futuro pero también las ciencias numéricas, la salud o crear ciudades y edificios inteligentes o la conservación de los ecosistemas.
Hay que hacer un análisis muy detallado de la realidad actual para responder
a todos estos desafíos conjuntamente. “1 + 1 deben ser más que 2”. Esa debe
ser nuestra gran fuerza de la colaboración entre ambas regiones para llevarnos
proyectos europeos. Los tres pilares fundamentales para responder al futuro en
Europa son el académico, el tecnológico y el industrial y en este sentido tenemos que avanzar en nuestra colaboración para dar nuevas respuestas.
Joseba Jauregizar:
¿Qué instrumentos reales necesitamos para hacer operativas las colaboraciones
entre ambos territorios? En el pasado teníamos los programas Euskadi-Aquitania y otros programas europeos pero, ¿entendéis que sería necesario continuar
con estos programas apoyados por ambos gobiernos regionales para impulsar
la investigación, la formación y la transferencia tecnológica?
Helene Jacquet:
Sí, sin duda, lo primero es el apoyo a la movilidad de los estudiantes e investigadores en general, en beneficio de su formación. Los KICs (Knowledge and
Innovation Communities), por su naturaleza, que reúnen a los poderes públicos
territoriales con investigación, el mundo socioeconómico y las empresas pueden ser una palanca. Hay que hacer entrar los problemas actuales de desarrollo
económico en la investigación para generar valor real. Tenemos un deseo de internacionalización conjunta, por ejemplo en la Universidad de Burdeos muchas
empresas locales nos piden que les acompañemos en procesos de internacionalización. Los poderes públicos deben reforzar las redes internacionales y un reto
nuestro es encajar este ecosistema de colaboración entre las dos regiones en
el ámbito internacional. Tenemos dos mercados naturales como son los países
francófonos y los que hablan español que son recursos a explotar para apuntalar nuestro sistema local.
“Para dar respuesta a la innovación hay
que integrar a todos los actores en esta
cadena de valor, desde la universidad
a las empresas pasando por los
laboratorios”
Fernando Plazaola
En definitiva, estamos creando ahora las condiciones para que haya una auto-organización ordenada que nos permita ser mucho más competitivos, tanto para
responder a las llamadas de Europa, como para lanzar iniciativas propias.
Joseba Jauregizar:
Siguiendo esta cuestión, he mencionado antes la estrategia de especialización
inteligente RIS3 de Euskadi cuyas áreas principales son la salud, biociencias, manufacturing o energía y me gustaría preguntarle al vicerrector de Innovación de la
Universidad de Burdeos, Eric Papon, cuáles son los ámbitos de la estrategia especialización inteligente de Aquitania para ver, de esta manera, algunos focos de colaboración compartida entre ambas regiones en el marco de las estrategias RIS3
Eric Papon:
Evidentemente todos tenemos nuestra hoja de ruta definida en el ámbito de la
especialización inteligente, hay que definir ahora nuestras competencias en los
campos de excelencia de ambas regiones. Tenemos polos estratégicos en fotónica, ecología, materiales, ecosistemas, entre otros. Ahora hay un trabajo por
“Necesitamos actuar a diferentes
niveles, construyendo confianza entre
los investigadores y abriéndonos a la
empresa”
Antonio Porro
MESA DE IDEAS - Visiones y reflexiones sobre la investigación desde Euskadi y Aquitania
Joseba Jauregizar:
Hemos entrado de lleno en una de las cuestiones claves, la necesidad de transformar el conocimiento en valor añadido y en economía, en esa reflexión europea actual de cómo superamos esta crisis. ¿Cómo podemos conectar mejor los
centros de conocimiento y los centros tecnológicos con las empresas?. ¿Cómo
podemos convertirnos en motor de ese desarrollo económico?
Jacques Tortos:
Lo primero habría que comprobar en qué podemos tener un empuje para que,
vestigadores y abriéndonos a la empresa. Es deseable tener escalada la financiación. El gran potencial de la tecnología es dar soluciones a problemas no
resueltos pero que impliquen soluciones de valor industrial. La transferencia
tecnológica de alto potencial requiere ser tratada de forma especial. En el caso
de acudir a fondos europeos, estamos trabajando con agentes en una cadena de
valor y hay que identificar oportunidades entre todos ellos para buscar soluciones. Sería muy interesante crear algún foro de reflexión conjunto entre empresas, centros tecnológicos y universidad para identificar desafíos concretos de la
zona, que permitan a las empresas de la Euro-región mejorar su posición competitiva. Este podía ser un campo de aterrizaje perfecto para las empresas, en
una acción orientada hacia un desarrollo económico basado en el conocimiento.
Fernando Plazaola:
Una idea muy interesante, pero que creo necesario señalar, es que actualmente
existe un desconocimiento de las empresas vascas del potencial empresarial
de Aquitania y viceversa. Sería necesario hacer un análisis de la potencialidad
empresarial y socioeconómica de las dos regiones
Joseba Jauregizar:
En una mesa redonda en la que estuve recientemente se comentó que el antídoto contra la crisis es la innovación. ¿Creéis que esto es asumido por la sociedad
y los políticos?. ¿Compartís vosotros esta visión?
Eric Papon:
Es una cuestión difícil pero muy interesante. Tiene mucho que ver con el debate
de si la investigación universitaria debe tener una dimensión de mercado. Yo
creo que la universidad no tiene que poner en el mercado productos, ya hay
otros agentes que lo hacen. Sin embargo, sí que tenemos aún mucho trabajo
por hacer para que se piense en la cadena de valor desde el inicio. Un reto necesario para relacionar investigación académica, tecnología e innovación. Tampoco podemos olvidarnos que la innovación también está asociada con otras
competencias, con la presencia cada vez más frecuente de profesionales como
arquitectos y especialistas en ciencias humanas y sociales asociados a tecnología
que ayudan a resolver nuevos retos de nuestra sociedad.
“El proceso de colaboración entre
Euskadi y Aquitania debe de ser
bottom-up y tiene que ir en la línea de
reforzar la cadena de valor entre los
dos territorios”
Joseba Jauregizar
trabajando en ambos territorios, exista realmente un valor añadido. Por ejemplo, creación de empresas, sistemas tipo capital riesgo que conectaran redes de
ambas regiones y que pudieran aportar un apoyo a proyectos que tengan una
doble visión transfronteriza. Hay que buscar herramientas específicas.
En cuanto a la conexión entre centros de conocimiento, tecnológicos y empresas, entramos en un área de compartir riesgos y beneficios, hay que crear las
condiciones para que surjan proyectos que estén soportados por empresas y
centros de ambas regiones. Pasar de la cultura de buscar apoyos a compartir
los conocimientos para responder a desafíos reales. Por ejemplo, hoy en día la
ciudad inteligente supone creación de nuevos sistemas tecnológicos y ahora en
Burdeos estamos trabajando en equipos multidisciplinares de ambas regiones
para actuar en un nuevo espacio común que se crea con la llegada del TGV a
la capital de Aquitania. Este nuevo espacio es una ciudad que lleva su propia
inteligencia, nosotros tenemos el conocimiento si trabajamos juntos. Hay que
compartir desafíos para construir soluciones conjuntas.
Antonio Porro:
Necesitamos actuar a diferentes niveles, construyendo confianza entre los in-
Cada vez es más importante asociar culturas científicas diferentes, tecnológicas
y sociales. Hay que conectar a investigadores, ingenieros y especialistas en mercado, que controlen cómo funciona.
Fernando Plazaola:
Evidentemente, ahora estamos en un momento de crisis y creo que es también
cuando tenemos que hacer más innovación. Hay una cosa que es importante
destacar, en la universidad generamos conocimiento que se transfiere a la cadena de valor. Para dar respuesta a la innovación hay que integrar a todos los actores en esta cadena de valor, desde la universidad hasta las empresas pasando
por los laboratorios. Esta es una cuestión pendiente en Euskadi. Hay que evitar
los departamentos estancos.
En innovación ahora hay que trabajar retos concretos para dar respuestas a
problemas concretos y lo voy a ilustrar con un ejemplo: en la EHU-UPV estamos trabajando con una empresa de vidrio, colaborando con ellos en el diseño
de nuevos productos desde la Facultad de Bellas Artes, nuevos productos para
sacar al mercado. También hay grupos de matemáticos que les están dando
respuesta para simplificar sus procesos. Es decir, estamos hablando de que la
universidad, junto con los otros actores, tiene muchas potencialidades para dar
respuesta a este tipo de innovación.
Joseba Jauregizar:
Pienso que la integración de la cadena de valor es importante pero también creo
que las integraciones deben de hacerse de abajo a arriba, en Euskadi un claro
ejemplo es el proyecto Euskampus. También creo que este proceso de colaboración bottom-up entre Euskadi y Aquitania tiene que ir en la línea de reforzar esa
cadena de valor entre los dos territorios. Colaborar y cooperar es el camino para
el bienestar económico y el éxito de las dos regiones.
39
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Nuevos Materiales de
Conversión Ascendente
para Fotoquimioterapia con Complejos
de Metales de Transición
Silvia Alonso-de Castro, Emmanuel Ruggiero, Luca Salassa
CIC biomaGUNE, Theranostic Nanomedicine Laboratory.
Debido a la decisión de celebrar el 2015 como el año de la luz es importante
poner en relieve, una vez más, cómo la interacción de la luz con moléculas y
materiales juega un papel crucial tanto en el desarrollo de vida como en una
increíble variedad de aplicaciones fundamentales.
cercano) los efectos biológicos de estas pequeñas moléculas y, posiblemente,
mejorar la eficacia de los tratamientos disminuyendo efectos secundarios no
deseados.
La terapia fotodinámica
Nuestro trabajo actual está dirigido a la explotación de la luz y de los estados excitados de materiales híbridos para fines médicos. En particular queremos acoplar nanopartículas de conversión ascendente con profármacos anticancerígenos basados en metales de transición, una clase de agentes contra el cáncer con
propiedades únicas. El objetivo es activar con luz de alta penetración (infrarrojo
El éxito de la terapia fotodinámica (PDT, photodynamic therapy en inglés) ha
atraído mucha atención sobre el uso de la luz y de las reacciones fotoquímicas
para aplicaciones en medicina.[1] La PDT hace un uso combinado de la luz y un
fotosensibilizador (Figura 1a) para convertir el oxígeno celular de su estado fundamental triplete (3O2) al estado excitado singlete (1O2, Figura 1b). El 1O2 reacciona
con varios componentes celulares y puede generar eficazmente especies reactivas de oxígeno (ROS, reactive oxygen species) que inducen el estrés oxidativo,
provocando la muerte de células cancerosas directamente irradiadas así como el
cierre de los vasos sanguíneos tumorales.[2]
La activación de profármacos con luz permite el control temporal y espacial con
respecto a la entrega y la aplicación de la terapia contra el cáncer, ya que la acción de las especies biológicamente activas se desencadenaría exclusivamente
en las áreas irradiadas. Además, los efectos biológicos generados por la PDT son
PROYECTOS DE INVESTIGACIÓN - Nuevos Materiales de Conversión Ascendente
muy atractivos desde un punto de vista médico. Por ejemplo, la relativa falta de
resistencia inducida por la PDT y un proceso de curación que implica la regeneración de los tejidos normales, en lugar de dejar cicatrices, son ventajas que hacen de la PDT una opción terapéutica viable para una amplia gama de tumores
en combinación o como una alternativa a los tratamientos más consolidados.[3]
“El desarrollo de nuevos profármacos,
con diferentes mecanismos de acción
de los fotosensibilizadores actualmente
usados en PDT, podría conducir a superar
algunos de los inconvenientes asociados
a la PDT”
oxaliplatino respectivamente, los complejos metálicos se han convertido en una
herramienta fundamental para la cura de diferentes tumores. Por esto, se han
llevado a cabo una gran cantidad de estudios a lo largo de los últimos años
sobre fármacos basados en platino y rutenio, que han facilitado la explotación
fotoquímica de complejos metálicos con el objetivo de desarrollar profármacos
innovadores y activables con luz.[4]
Con el fin último de usar esta tecnología en fotoquimioterapia los complejos
deben ser estables e inocuos en la oscuridad bajo condiciones fisiológicas, pero
al mismo tiempo tienen que ser capaces de generar especies citotóxicas dirigidas a las funciones claves de las células tras su activación mediante la luz. Las
diferencias en citoxicidad en presencia o ausencia de luz son la base del índice
de fototoxicidad, un parámetro que marca la eficacia de los complejos metálicos
como candidatos para profármacos fotoactivables.
Una nueva vía de explotación de este tipo de complejos fotactivables es la diversidad química para desencadenar nuevos mecanismos de muerte celular, independientes de la generación de 1O2 y ROS. De hecho, los complejos de metales
de transición presentan una gran variedad de estados excitados accesibles, lo
que resultaría en una amplia gama de reacciones químicas.[5] El desarrollo de
nuevos profármacos, con diferentes mecanismos de acción de los fotosensibilizadores actualmente usados en PDT, podría conducir a superar algunos de los
inconvenientes asociados a la PDT y mencionados anteriormente.
Figura 1: (a) Estructuras de fotosensibilizadores aprobados para PDT. (b) Diagrama de los
estados excitados de un fotosensibilizador genérico junto con O2 y mecanismo de conversión
O2
3
O2.
1
A pesar de su éxito y de algunos desarrollos prometedores, la PDT tiene varios
inconvenientes, que actualmente limitan la eficacia del tratamiento. Tales limitaciones, se deben a las propiedades fotofísicas y fotoquímicas de los fotosensibilizadores, así como a sus efectos biológicos. Por ejemplo, i) la longitud de onda
de absorción de luz es demasiado corta para lograr una penetración óptima en
el tejido, ii) el coeficiente de extinción de los fotosensibilizadores es demasiado
bajo, y iii) los pacientes sufren una larga fotosensibilización después del tratamiento debido a la baja eliminación del fármaco. Además, la dependencia del
oxígeno molecular es en última instancia, la limitación clave para la eficacia de la
PDT, ya que los tejidos tumorales son a menudo hipóxicos (carentes de oxígeno)
y normalmente se produce el agotamiento del oxígeno durante el tratamiento
PDT, un fenómeno que reduce la eficacia de la terapia.
“Las nanopartículas pueden captar
y convertir la luz de baja energía en
electrones o luz visible, facilitando así la
transformación de la fotoquimioterapia
en una metodología viable para el
tratamiento de lesiones en profundidad”
Complejos metálicos fotoactivables como
agentes antitumorales
Desde el descubrimiento de las propiedades antitumorales del cisplatino y el
desarrollo de sus derivados de segunda y tercera generación, carboplatino y
Figura 2: (a) Selección de complejos de metales de fotoactivables con actividad antineoplásica.
(b) penetración de la luz en los tejidos a diferentes longitudes de onda.
Diferentes tipos de complejos fotoactivables han sido desarrollados recientemente para usos relacionados con la biología y la medicina y en particular como
agentes anticancerígenos. Concretamente, los complejos de Pt, Rh y Ru (Figura
2a) resaltan entre los compuestos más prometedores in vitro y que incluso en
algunos casos se han empleado para estudios in vivo.[6] Un ejemplo significativo son los derivados de Pt(IV) con ligandos azida y entre ellos el trans,trans,trans-[Pt(N3)2(OH)2(NH3)(py)] destaca por sus propiedades antineoplásticas.
Este compuesto es muy estable en condiciones fisiológicas y actúa como un
profármaco de Pt(II) que en el oscuridad no es tóxico y no produce cambios
en la morfología celular. Sin embargo, bajo irradiación con luz (hasta 420 nm),
desencadena un mecanismo de muerte celular relacionado con la autofagia. Su
actividad ha sido comprobada en un gran número de líneas celulares, y a nivel
molecular su acción se debe a la reducción de Pt(IV) a Pt(II) inducida por dicha
irradiación. A diferencia del cisplatino, el trans,trans,trans-[Pt(N3)2(OH)2(NH3)
(py)] presenta efectos biológicos diferentes, principalmente porque los aductos
que forma este último con ADN son totalmente distintos.[7]
Cabe destacar, que este complejo de Pt(IV) es activo en ratones portadores de
carcinoma de esófago (OE19) cuando es irradiado con luz visible (420 nm). Además, este complejo se puede administrar en una dosis diez veces superior a
41
la dosis máxima tolerada de cisplatino, sin encontrar ningún efecto negativo
en el comportamiento de los ratones. Por ejemplo, no hay fototoxicidad oculocutánea, demostrando que trans,trans,trans-[Pt(N3)2(OH)2(NH3)(py)] es activo
in vivo y podría provocar menores efectos secundarios comparado con otros
agentes.[7]
Al igual que la gran mayoría de complejos, trans,trans,trans-[Pt(N3)2(OH)2(NH3)
(py)] tiene una limitación muy importante, debida a que sus propiedades de
absorción son inadecuadas, o por lo menos no son óptimas, para aplicaciones
biomédicas. Por tanto, es crucial encontrar soluciones que permitan resolver
tal limitación para avanzar en el uso de complejos metálicos fotoactivos en fotoquimioterapia. Por otro lado, una alta capacidad de absorción en la parte roja
del espectro visible, o mejor en el infrarrojo cercano (NIR, near infrared), es fundamental para maximizar la eficacia (es decir, mayor penetración, Figura 2b) de
agentes anticancerígenos fotoactivos a base de metales en tejidos cancerosos.
De este modo, la obtención de complejos metálicos que presenten una buena
absorción en el visible, junto con el aumento de su estabilidad en el estado fundamental y la mejora de su fotorreactividad, es un reto que en la mayoría de los
casos requiere una solución de compromiso.[5]
en la definición de las propiedades ópticas de estas partículas, ya que determina
la posición espacial relativa, el número de coordinación, y el ambiente químico
de los iones dopantes. Una matriz ideal debe ser estable químicamente, y tener
baja energía fonónica al fin de reducir el decaimiento no radiativo y aumentar la
eficiencia de la emisión de la conversión ascendente. Las mejores matrices hospedadoras son generalmente una combinación de fluoruros de metales alcalinos y de tierras raras (Na+, Ca2+, Gd3+ y Y3+). Esto es debido a que estos elementos
tienen los mismos radios iónicos que los dopantes de tierras raras, ofreciendo
la posibilidad de aumentar la estabilidad de las nanopartículas y reducir los defectos cristalinos.[10,11]
Nuevas estrategias de fotoactivación:
nanopartículas de conversión ascendente
En los últimos años, una estrategia prometedora que persigue superar las limitaciones de los complejos fotoactivables en términos de propiedades de absorción implica el uso de nanopartículas (por ejemplo, puntos cuánticos) que
puedan captar y convertir la luz de baja energía en electrones o luz visible, facilitando así la transformación de la fotoquimioterapia en una metodología viable
para el tratamiento de lesiones en profundidad.[1,3] Es importante destacar que
las nanopartículas pueden ser explotadas simultáneamente como nanoplataformas para la liberación de fotosensibilizadores o profármacos fotoactivables
a tejidos específicos y a compartimentos celulares. Además, pueden actuar al
mismo tiempo como sondas diagnósticas para la formación de imágenes.
En este marco, nuestro grupo ha comenzado recientemente a investigar el uso
de nanopartículas de conversión ascendente (UCNPs, upconversion nanoparticles en inglés) como medio de activación de la fotoquímica de complejos de
metales de transición que son biológicamente relevantes.[8,9]
Las UCNPs son nanocristales dopados con lantánidos que promueven procesos
ópticos no lineares como la emisión de fotones de alta energía (en el visible y
ultravioleta) después de la absorción secuencial de dos o más fotones en el
infrarrojo cercano.
En la óptica linear estándar, los fotones absorbidos por un fluoróforo se emiten
a mayor longitud de onda (desplazamiento de Stoke) porque el sistema pierde energía durante el decaimiento del estado excitado al estado fundamental.
Este proceso se define como luminiscencia (fluorescencia o fosforescencia dependiendo de la naturaleza del estado excitado). Por el contrario, la conversión
ascendente (upconversion) implica la absorción de dos o más fotones y la subsiguiente emisión de un solo fotón a la longitud de onda más corta, es decir a
mayor energía (desplazamiento de Anti-Stokes, Figura 3a). Tal fenómeno está
basado en diferentes mecanismos que pueden implicar absorción en el estado
excitado, transferencia de energía, y avalancha de fotones. En resumen, las UCNPs son nanomateriales que tienen la capacidad de emitir fotones en la región
ultravioleta y visible bajo excitación en el infrarrojo cercano.[10]
“Las UCNPs pueden mejorar el
impacto terapéutico de los complejos
fotoactivables combinándolos al diseño
de sistemas teranósticos”
En general, las UCNPs se componen de una matriz hospedadora con elementos
lantánidos dopantes en una baja concentración. La matriz juega un papel crucial
Figura 3: (a) Espectros de emisión de NaYF4 UCNPs dopadas con Yb3+/Er3+ (arriba) y Yb3+/Tm3+
(abajo) tras la excitación a 980 nm. (b) Mecanismo de la conversión ascendente en UCNPs
dopadas con iones Yb3+, Tm3+ y Er3+.
Los dopantes se pueden dividir en absorbedores y emisores dependiendo de su
función. El ion absorbedor más utilizado es el Yb3+, aunque el Gd3+ también es
comúnmente empleado, en particular, si se quieren obtener nanopartículas paramagnéticas que puedan ser usadas como sondas MRI. Ellos son responsables
de la absorción de luz NIR (980 nm) y de la transferencia de energía al emisor de
iones. Con el fin de maximizar el proceso de la conversión ascendente, los iones
absorbedor y emisor deben tener niveles de energía compatibles. El emisor es
el elemento responsable de la emisión en el UV-Vis, a través de la relajación
radiativa desde sus estados excitados (Figura 3b). Un emisor ideal tiene estados
excitados con un tiempo de vida largo (cientos de μs o ms), con el fin de permitir
una absorción secuencial de fotones y la población de los estados excitados de
alta energía. Elementos lantánidos que cumplen estos criterios son, por ejemplo, Er, Tm, y Ho. Se pueden obtener UCNPs con diferentes espectros de emisión mediante la variación de la composición de los lantánidos de dopaje o de
la matriz de acogida. Las nanopartículas que muestran conversión ascendente
más eficiente son de NaYF4 dopadas con Yb3+/Tm3+ (azul), Yb3+/Er3+ (verde) y Yb3+/
Ho3+ (rojo).[10,11]
Proyectos en curso en CIC biomaGUNE
Nuestro grupo está investigando el acoplamiento de nanopartículas de conversión ascendente con complejos de metales fotoactivables dotados de actividad
antineoplástica por el enorme potencial de estos sistemas en nanomedicina.
Las UCNPs pueden mejorar el impacto terapéutico de los complejos fotoactivables combinándolos al diseño de sistemas teranósticos, donde el complejo
metálico actúa como un profármaco terapéutico y las nanopartículas como una
fuente de luz en el infrarrojo cercano, como una plataforma de entrega y como
un agente multimodal de imágenes (por ejemplo, ópticos y MRI).
PROYECTOS DE INVESTIGACIÓN - Nuevos Materiales de Conversión Ascendente
A pesar de las propiedades fotofísicas prometedoras de las UCNPs, aún hay
muy poca literatura sobre sus usos como activadores de moléculas fotoquímicamente activas. Se han desarrollado hasta ahora varios materiales fotosensibles basados en UCNPs que utilizan andamios orgánicos como los basados
en ditienileteno[12] mientras que el uso de moléculas inorgánicas ésta mucho
menos explorado. El primer ejemplo que utiliza moléculas inorgánicas ha sido
reportado por Ford y colaboradores que han demostrado la liberación de NO
mediada por UCNPs a partir de la sal inorgánica [NH4][Fe4S3(NO)7] (sal negro de
Roussin).[13]
En este marco, recientemente empezamos a investigar si las UCNPs pueden ser
explotadas para fotoactivar complejos de rutenio polipiridílicos, una clase de
compuestos con importantes propiedades biológicas.[14] Se seleccionó el complejo cis-[Ru(bpy)2(py)2][Cl]2, donde bpy = 2,2´-bipiridina y py = piridina, por su
capacidad de liberar de manera eficiente un ligando piridilo y permitir la formación, en solución acuosa, del aquo derivado cis-[Ru(bpy)2(py)(H2O)][Cl]2 mediante excitación con luz.
Notablemente, cis-[Ru(bpy)2(py)2][Cl]2 sirve como un modelo para los complejos
de rutenio polipiridílicos biológicamente activos, ya que los sistemas basados en
cis-[Ru(bpy)2(L)2]2+ y en otras estructuras relacionadas se están convirtiendo en
compuestos jaula prometedores para la liberación de neuroquímicos y otros ligandos bioactivos con aplicaciones en la estimulación neuronal, en la inhibición
de proteínas y en la terapia del cáncer.[15,16]
De hecho hemos sido capaces de demostrar que NaYF4:Yb3+/Er3+ UCNPs son
adecuadas para activar con luz infrarroja cercana la fotoquímica de este sistema molecular y obtener el fotoproducto esperado. El solapamiento entre el
espectro de absorción de cis-[Ru(bpy)2(py)2][Cl]2 y el perfil de luminiscencia de
las UCNPs, destacan la idoneidad de la emisión de estas nanopartículas de aproximadamente 90 nm de diámetro para activar la fotoquímica del complejo. Las
simples interacciones electrostáticas entre el complejo cargado y las nanopartículas permiten que la fotorreacción tenga lugar y el ligando piridina se libere.
Después de este éxito inicial, ampliamos la aplicación de estos nanomateriales demostrando que las UCNPs pueden mediar la fotoactivación en el NIR de
complejos de Pt(IV) precursores de cisplatino, como el derivado cis,cis,trans-[Pt(NH3)2(Cl)2(O2CCH2CH2CO2H)2]. Esta familia de compuestos es representativa de
una clase de profármacos candidatos a agentes antitumorales y han alcanzado
etapas avanzadas de ensayos clínicos. En este reciente estudio, la decoración
de la superficie de las UCNPs NaYF4:Yb3+/Tm3+ con el profármaco de Pt(IV) se
ha logrado mediante la conjugación de tal complejo a un fosfolípido pegilado
(DSPE-PEG (2000)-NH2) y la formación de un aducto capaz de interactuar con los
ligandos hidrófobos que rodean las partículas (Figura 4).[9]
Experimentos de fotólisis muestran que la luz infrarroja cercana puede promover la fotoactivación del complejo (aunque su absorción llegue sólo a 400 nm) y
que la funcionalización con el fosfolípido pegilado parece ser una estrategia valiosa para desarrollar nanomateriales fotoactivables capaces de liberar especies
activas de Pt(II), que son las que finalmente ejercen actividad anticancerígena.
Conclusiones
Aunque nos encontramos en los estados iniciales de esta investigación, los primeros resultados prometedores destacan claramente que las UCNPs ofrecen
una estrategia viable para la activación de complejos metálicos en longitudes
de onda más adecuadas para aplicaciones in vivo. Sin embargo, habremos de
prestar cuidado a aspectos tales como las consecuencias del calentamiento por
láser sobre los tejidos biológicos y la eficiencia de la conversión ascendente.
Las UCNPs se basan en la transferencia de energía para la activación de complejos metálicos, por lo tanto, el solapamiento entre la emisión del donante y
la absorción del aceptor así como la proximidad entre ellos son parámetros de
optimización innegociables.
La baja toxicidad (tanto in vitro como in vivo) de UCNPs con respecto a otros
nanomateriales y su capacidad de imagen multimodal (MRI/PET/optical) son
ventajas clave para su explotación en nuevas aplicaciones nanomédicas. En este
sentido, estamos abordando algunos de estos asuntos, y hemos iniciado la investigación de las capacidades de imagen del sistema UCNP-Pt(IV) desarrollado.
La optimización de los aspectos anteriormente mencionados nos ofrece la oportunidad de lograr diferentes avances que allanen el camino para el diseño de
materiales fotoactivables para los diagnósticos con fines terapéuticos a base de
complejos metálicos y UCNPs.
Referencias
[1] Garaikoetxea Arguinzoniz, A.; Ruggiero, E.; Habtemariam, A.; Hernández-Gil,
J.; Salassa, L.; Mareque-Rivas, J. C. Part Part Syst Charact 2014, 31, 46–75.
[2] Agostinis, P.; Berg, K.; Cengel, K. A.; Foster, T. H.; Girotti, A. W.; Gollnick S. O.;
Hahn S. M.; Hamblin, M. R.; Juzeniene, A.; Kessel, D.; Korbelik, M.; Moan, J.; Mroz,
P.; Nowis, D.; Piette, J.; Wilson, B. C.; Golab, J. CA Cancer J Clin 2011, 61, 250–81.
[3] Bown, S. G. Phil Trans R Soc A 2013, 371, 20120371–87.
[4] Farrer, N. J.; Salassa, L.; Sadler, P. J. Dalton Trans 2009, 10690–701.
[5] Wagenknecht, P. S.; Ford, P. C. Coord Chem Rev 2011, 255, 591–616.
[6] Ruggiero, E.; Alonso-de Castro, S.; Habtemariam, A.; Salassa, L. Struct Bond 2014, DOI: 10.1007/430_2014_165.
[7] Westendorf, A. F.; Woods, J. A.; Korpis, K.; Farrer, N. J.; Salassa, L.; Robinson, K.; Appleyard V.; Murray, K.; Grunert, R.; Thompson, A. M.; Sadler, P. J.; Bednarski, P. J. Mol Cancer Ther 2012, 11, 1894–905.
[8] Ruggiero, E.; Habtemariam, A.; Yate, L.; Mareque-Rivas, J. C.; Salassa, L. Chem Comm 2014, 50, 1715–18.
[9] Ruggiero, E.; Hernández-Gil, J.; Mareque-Rivas, J. C.; Salassa, L.
Chem Comm 2015, In Press, DOI: 10.1039/C4CC07960D.
[10] Wang, M.; Abbineni, G.; Clevenger, A.; Mao, C.; Xu, S. Nanomed Nanotech Biol Med 2011, 7, 710–29.
[11] Zhou, J.; Liu , Z.; Li, F. Chem Soc Rev 2012, 41, 1323–49.
[12] Carling, C.-J.; Boyer, J.-C.; Branda, N. R. Org Biomol Chem 2012, 10, 6159–68.
[13] Garcia, J. V.; Yang, J.; Shen, D.; Yao, C.; Li, X.; Wang,
R.; Stucky, G. D.; Zhao, D.; Ford, P. C.; Zhang, F. Small 2012, 8, 3800–05.
[14] Schatzschneider, U. Eur J Inorg Chem 2010, 1451–67.
[15] Fino, E.; Araya, R.; Peterka, D. S. ; Salierno, M.; Etchenique, R.; Yuste, R. Front Neural Circuits 2009, 3, 1–9.
Figura 4: Representación esquemática del mecanismo de funcionamiento del sistema fotoac-
[16] Respondek, T.; Garner, R. N. ; Herroon, M. K.; Podgorski, I.; Turro, C.; Kodanko, J. J. J Am Chem Soc, 2011, 133, 17164–7.
tivable UCNP-Pt(IV) desarrollado recientemente en nuestro laboratorio.
43
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Microsensores basados en
redes de nanoagujeros
Josu Martinez-Perdiguero1, Deitze Otaduy1,2, Aritz Retolaza1,2 y Santos Merino1,2.
CIC microGUNE, Arrasate-Mondragón, España.
2 Unidad de Micro y Nanofabricación, IK4-Tekniker, Éibar, España.
1
En CIC microGUNE se investiga en una serie de microsensores novedosos basados
en efectos plasmónicos producidos en superficies metálicas nanoestructuradas.
Estos microdispositivos ofrecen grandes ventajas como gran sensibilidad, potencial
de miniaturización y capacidad de detección sin marcadores en tiempo real.
Además, la escalabilidad de las técnicas de fabricación empleadas los convierten en
grandes candidatos para una futura industrialización.
Una nueva generación de microsensores basados en efectos plasmónicos está
a las puertas de irrumpir en multitud de aplicaciones hoy en día dominadas por
otros métodos de sensado convencionales. Estos nuevos microsensores ópticos
serán más sensibles, más pequeños, más rápidos y capaces tanto de detectar
varios compuestos simultáneamente como de funcionar de manera continua
en tareas de monitorización. La ciencia de estos microsensores se encuentra
en la interacción especial de la luz con nanoestructuras como nanoagujeros,
nanoantenas o nanopartículas de dimensiones inferiores a la longitud de onda.
Los campos electromagnéticos en la cercanía de las nanoestructuras, producidos por la incidencia de luz, se ven fuertemente afectados por el medio que
los rodea, un efecto que puede ser aprovechado para detectar la presencia de
determinados compuestos de interés en una muestra en proporciones extremadamente pequeñas. A pesar de que las pruebas de concepto de estos microsensores ya están realizadas, métodos de fabricación a escala nanométrica
de alto rendimiento son necesarios para el despegue de esta tecnología. En microGUNE, se investiga en el desarrollo y la optimización de estos microsensores
del futuro.
Introducción
Bajo unas condiciones determinadas, la luz incidente en determinados metales
puede dar lugar a ondas de electrones que se propagan de manera muy confinada en la superficie. Estas ondas son conocidas como plasmones superficiales
(PS) y las condiciones para su generación (condiciones de resonancia) son ex-
Josu Martinez-Perdiguero, doctor en Ciencias Físicas e investigador de CIC microGUNE. Trabaja en el desarrollo
de nuevos microsensores MEMS con aplicaciones en ámbitos
tan variados como los entornos hostiles o la salud.
Deitze Otaduy, licenciada en Ciencias Físicas con especialidad de óptica por la Universidad de Zaragoza. Actualmente
es investigadora en la unidad de Micro y Nanoingenineria de
CIC microGUNE para el desarrollo de biosensores lab-on-achip y sensores ópticos de aplicación industrial.
Aritz Retolaza, doctor en Ciencias Químicas e investigador de la Unidad de Micro y Nanoingeniería de CIC microGUNE.
Trabaja en la estructuración de substratos mediante fotolitografía UV y litografía de nanoimpresión con el fin de fabricar
dispositivos para uso en distintos campos como por ejemplo la
fotónica o la salud.
Santos Merino, doctor en Ciencias Físicas y Director de la
Unidad de Micro y Nanoingeniería de CIC microGUNE. Trabaja
en el desarrollo de procesos de litografía de nanoimpresión y
su aplicación a biosensores, medicina regenerativa y fotónica
orgánica.
PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros
Figura 1. Simulación de la interacción de las ondas electromagnéticas con el chip sensor.
Se muestra la densidad de energía asociada a la excitación del plasmón superficial, longitud
de onda de resonancia. Los cálculos se realizan mediante simplificación por simetrías para
reducir el costo computacional.
tremadamente sensibles a las propiedades ópticas del entorno inmediato que
les rodea. Este fenómeno se puede utilizar para desarrollar sensores ópticos y,
de hecho, los sensores basados en resonancia de plasmones superficiales (SPR
por sus siglas en inglés) son un instrumento común en muchos laboratorios
principalmente para la monitorización de interacciones moleculares en tiempo
real sin la necesidad de marcadores (label-free).
Típicamente las condiciones de resonancia para acoplar la luz incidente con los
PS se han conseguido utilizando la conocida configuración de Kretschmann en
la que una capa lisa de unos 50 nm de oro es depositada sobre un prisma.
Variando el ángulo de incidencia se consigue, en las condiciones de resonancia,
un pico de absorción en la intensidad de luz reflejada, la cual se transforma en
PS. Como se puede intuir, al necesitar una configuración no lineal y tener que
controlar el ángulo de incidencia de la luz con gran precisión, se requiere de un
montaje óptico relativamente complejo. Sin embargo, existen otros métodos
para acoplar la luz a los PS incluso más sensibles. Entre ellos, destaca el uso de
redes periódicas de nanoagujeros con dimensiones menores que las longitudes
de onda de la luz incidente. Según la óptica clásica basada en los principios
clásicos de la luz como onda electromagnética, la intensidad de luz trasmitida
a través de estos agujeros debería ser prácticamente nula, mucho menor de la
que es observada en la realidad. Este efecto es conocido como transmisión óptica extraordinaria y es un fenómeno mediado por la propagación de PS, también
llamado resonancia de plasmones localizados (LSPR, de sus siglas en inglés). La
luz se transmite de manera lineal y perpendicular al sustrato estructurado, lo
que simplifica en gran medida la óptica necesaria facilitando la posible miniaturización e integración de un microsistema sensor. Además, el tamaño de estas
redes altamente sensibles es de unas pocas micras cuadradas, lo que dispara
las posibilidades de multiplexado al poder crear en pequeños chips un altísimo
número de redes independientes capaces de sensar diferentes compuestos simultáneamente. Esto posibilita, por ejemplo, en el campo de la salud, la detección en una única medida de enfermedades caracterizadas por la presencia de
varios biomarcadores.
Principios básicos de los plasmones
superficiales
La geometría de las redes periódicas de nanoagujeros es crucial a la hora de
diseñar nanosensores con sensibilidades optimizadas y que trabajen en la zona
Figura 2. Fotografía de dos redes de nanoagujeros de 500x500 μm2 del máster para la fabricación de chip con capacidad multiplexada. El color de diferente de las redes se debe al efecto de difracción de la luz sobre dos nanoestructuras con distintos periodos. En cada una de estad redes hay aproximadamente 1 millón de nanoagujeros. superficial, longitud de onda de resonancia. Los cálculos
se realizan mediante simplificación por simetrías para reducir el costo computacional.
45
del espectro óptico de interés. Una gran parte de trabajos relacionados con este
tipo de sistemas son investigaciones teóricas donde se simulan patrones más o
menos complejos en la búsqueda de periodicidades, simetrías, tamaño de agujero, materiales u otros parámetros optimizados. Por su simplicidad y validez
como prueba de concepto de la tecnología, en microGUNE se trabaja con redes
donde i y j son dos números enteros que describen las resonancias de distintos
ordenes, p es la periodicidad de la red y Es y Em son las permitividades dieléctricas del medio en contacto con la red (aire, agua...) y del oro respectivamente.
Utilizando los principios teóricos se realizan simulaciones computacionales para
calcular las geometrías óptimas de mayor sensibilidad a ser fabricadas para
cada aplicación. Así, mediante cálculos FDTD (finite-difference time-domain) se
calcula la distribución del campo eléctrico perpendicular a la superficie del oro
nanoestructurado y densidad de energía asociadas a la excitación del PS (ver
Figura 1). También se estudia el estrechamiento y la posición de las resonancias
en función del periodo de la red de nanoagujeros, además de calcular el decaimiento del campo evanescente con la distancia. Para aumentar la sensibilidad
en ciertos casos, se estudia el efecto que tiene sobre la sensibilidad el hecho de
trabajar con substratos con índice de refracción más pequeños que el vidrio.
Figura 3. Esquema del proceso NIL donde se muestran los pasos necesarios para llevar a
cabo la fabricación de redes de nanoagujeros de oro.
cuadradas con periodicidades de 375-600 nm y tamaños de agujero de 100-250
nm. Las capas finas de oro necesarias para crear estas estructuras tienen espesores de 50-100 nm. Las posiciones de las distintas resonancias para redes de
este tipo vienen dadas por la siguiente fórmula:
𝜆𝜆!" 𝑖𝑖, 𝑗𝑗
=
𝑝𝑝
𝜀𝜀! 𝜀𝜀!
𝑖𝑖 ! + 𝑗𝑗 ! 𝜀𝜀! +𝜀𝜀!
Figura 4. Fotografía de microscopio electrónico de una red de nanoagujeros de oro.
PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros
Figura 5. Esquema del montaje óptico experimental para la medida del espectro de transmisión a través de las redes de nanoagujeros fabricada. Todas las medidas son realizadas en un ambiente
controlado en temperatura y humedad.
Fabricación de las nanoestructuras
sensoras
La cantidad de trabajos de investigación sobre nanosensores basados en resonancia de plasmones superficiales durante los últimos años ha crecido drásticamente. Este hecho está estrechamente unido al desarrollo de la capacidad
de fabricación de nanoestructuras tanto mediante métodos “top-down” como
“bottom-up”. Dentro de las técnicas de micromecanizado “top-down” que permiten el diseño ad hoc de nanoestructuras, las más utilizadas son la litografía por
haz de electrones (EBL) y el haz de iones focalizado (FIB). El EBL “escribe” sobre
una resina sensible, normalmente polimetilmetacrilato (PMMA), depositada sobre el sustrato de interés para, a continuación, revelarla y procesar el sustrato
mediante técnicas convencionales de microfabricación. A diferencia del EBL, el
FIB nanoestructura directamente capas finas mediante el bombardeo con iones
de galio. Además de resoluciones de unos pocos nanómetros, ambas técnicas
permiten un control casi total de la forma y el tamaño de las estructuras.
Por otro lado, el proceso NIL se basa en la transferencia de las estructuras nanométricas presentes en el molde patrón (ver el esquema de la Figura 3). Para
ello, el sustrato se cubre con una fina capa de resina y se pone en contacto con
el molde (Figura 3a). Controlando las condiciones de presión y temperatura, el
polímero fluye dentro de las estructuras del molde, para a continuación, proceder a un desmoldeo controlado que deja la resina nanoestructurada (Figura
3b). Un paso crítico es el ataque mediante plasma de oxígeno de la llamada
capa residual de resina que permanece tras el desmoldeo (Figura 3c). Tras este
paso, la resina remanente actúa como máscara para depositar la capa fina de
oro necesaria (Figura 3d) y la resina es eliminada mediante un proceso de liftoff (Figura 3e). En la Figura 4 se muestra una imagen SEM de una red fabricada
mediante esta técnica.
En los últimos años han aparecido una serie de técnicas conocidas como litografías alternativas que se presentan como posibles candidatas a medio plazo para la fabricación de alto rendimiento de estructuras nanométricas como
las necesarias para el desarrollo de esta nueva generación de nanosensores
basados en PS. Uno de los ejes principales de la estrategia de microGUNE es
la generación de conocimiento sobre este tipo de métodos de nanofabricación
debido principalmente a su potencial industrialización e impacto. Destacan el
template stripping y la más madura litografía de nanoimpresión (NIL) las cuales
son empleadas en la fabricación de las redes de nanoagujeros para el desarrollo
de nanosensores.
En el proceso de template stripping una fina capa de oro altamente uniforme
y de muy baja rugosidad es evaporada mediante una evaporadora por haz de
electrones sobre el molde patrón nanoestructurado (ver Figura 2) y una resina
curable es depositada en un vidrio. El molde y el vidrio se ponen en contacto y la
resina epoxi es curada por medio de luz UV. Debido a la mejor adhesión del oro
a la resina epoxi que al silicio, el oro en contacto con la resina queda adherido
sobre el substrato formado por el vidrio y la resina de manera que las estructuras presentes en el molde se transfieren al vidrio, formando en este caso las
redes de nanoagujeros.
Figura 6. Espectro de transmisión centrado en la longitud de onda de resonancia para la
red estudiada para seis concentraciones diferentes de sacarosa de índice de refracción conocido. Se puede apreciar un claro desplazamiento hacia el infrarrojo, longitudes de onda
mayores, a mayor concentración de sacarosa, mayor índice de refracción de la muestra.
47
Caracterización de los nanosensores
Tras el proceso de fabricación, hay que llevar a cabo la caracterización óptica
de las redes. Para ello se trabaja sobre un banco óptico lineal como el esquematizado en la Figura 5 en el que un haz de luz es focalizado sobre el chip de
oro estructurado con la red de nanoagujeros. Los espectros de transmisión son
estudiados mediante un espectrofotómetro. Para facilitar las medidas con distintas soluciones se emplea una celda microfluídica. En la Figura 6 se muestra la
resonancia de primer orden para una de las redes fabricadas y la variación de la
longitud de onda con el índice de refracción del medio en contacto. En este caso
se han utilizado soluciones calibradas que permiten calcular la sensibilidad de la
red, la cual está próxima a los mejores valores encontrados en el estado del arte
y son aproximadamente 500 nm por unidad de índice de refracción (nm/RIU).
se debe conseguir para poder detectar la presencia de un compuesto en una
muestra es que dicho compuesto esté lo más cerca posible de la zona sensora,
para ello se funcionaliza específicamente dicha zona para que este quede anclado dentro de la distancia mencionada. Así, hay que remarcar que la eficacia y
sensibilidad de estos microsensores no sólo depende del dispositivo en sí, sino
también de una adecuada funcionalización de la red sensora. En microGUNE,
por tanto, se investiga horizontalmente tanto en el desarrollo de los microsensores como en protocolos óptimos de funcionalización para cada caso de estudio.
Además de comparar las longitudes de onda de resonancia obtenidas para las
distintas redes fabricadas entre sí, se comprueba que dichas longitudes de onda
obtenidas experimentalmente concuerdan con las calculadas mediante simulación. Como muestra la Figura 7, para una red de periodo 450 nm y diámetro de
agujeros de 200 nm inmersa en agua, la concordancia es alta lo que ratifica la
validez de los procesos de fabricación y simulación.
Como se puede apreciar en los valores de las longitudes de onda de las figuras, las nanoestructuras se han diseñado de tal forma que las resonancias se
encuentren en el espectro del visible. Teóricamente, aumentando el periodo
de las redes, la longitud de onda de resonancia se desplaza hacia el infrarrojo
cercano o medio y es posible aumentar la sensibilidad a la vez que se simplifica
la fabricación debido a que las dimensiones críticas son mayores. Sin embargo,
trabajar con longitudes de onda fuera del visible conlleva el inconveniente de
tener que usar una instrumentación mucho más cara y delicada que necesita
unas condiciones de trabajo más exigentes, encareciendo altamente el sistema.
Esto hace que, a pesar del interés básico que pueda suscitar, quede fuera del
objetivo de esta investigación que es desarrollar microsensores de bajo coste,
portátiles, robustos y competitivos frente a técnicas estándar.
El rango de influencia de los PS es de unos 50 nm por lo que lo primero que
Figura 7. Representación de las longitudes de onda de resonancia experimental frente a
simulada para una red de nanoagujeros. Se puede observar una buena correspondencia, lo
que indica que las simulaciones son un buen soporte para definir las características óptimas
de las nanoestructuras en función de la aplicación.
PROYECTOS DE INVESTIGACIÓN - Microsensores basados en redes de nanoagujeros
Figura 8. Monitorización a tiempo real de la adsorción de BSA sobre la superficie de oro. Evolución de la intensidad a una determinada longitud de onda en donde el cambio es más significativo. Se
puede observar que la proteína de BSA se inyecta en t=150s lo que provoca un cambio de la intensidad, cuyo valor va a aumentando hasta que a t=700s aproximadamente la superficie de oro se
satura y no se produce más adsorción de BSA, la intensidad tiende a un valor constante.
Aplicación y prueba de concepto
Una de las aplicaciones estudiadas y utilizada como prueba de concepto con
estos microsensores basados en LSPR es la detección de citoquinas en suero
asociadas a las enfermedades inflamatorias autoinmunes, como lo son la Interleuquina 6 (IL-6), Factor de Necrosis Tumoral Alfa (TNF-α), y la Interleuquina
12 (IL-12). El dato de la concentración de estas proteínas en suero se considera
esencial para establecer un pronóstico sobre la cascada inflamatoria y así esta-
blecer un criterio basado en un objetivo molecular cuantificable para la administración de terapias basadas en anti-TNF alfa. Sin embargo, la concentración
de estas proteínas en suero es muy baja y se requiere un sistema de detección
de altísima sensibilidad, algo que hay día de hoy solo es posible en laboratorios
altamente especializados.
Los microsensores desarrollados no sólo tienen la capacidad de medir la concentración de compuestos de manera totalmente label-free, i.e., sin marcadores, sino que además, fijada una longitud de onda óptima, mediante la monitorización de la evolución de la intensidad, se pueden realizar medidas en tiempo
real. Con el objetivo de demostrar dicha capacidad, en la Figura 8 se muestra la
monitorización en tiempo real de la adsorción de proteínas en una superficie de
oro. En este experimento en concreto, se incubaron 50 µg/ml de suero bovino
(BSA, Bovine Serum Albumin) sobre un chip de nanoagujeros de diámetro 155
nm y periodo de red de 500 nm. La figura representa la intensidad transmitida a
una longitud de onda fija (645 nm, precisamente donde se recoge el mayor cambio de señal) frente al tiempo de incubación donde se puede observar la cinética de absorción de BSA a la superficie de oro en un modo real-time label-free.
En el momento en que se inyecta la muestra y la proteína es adsorbida en la
superficie, la señal aumenta. Este aumento se da hasta llegar a una saturación
donde la señal se estabiliza, indicando así la total ocupación de la superficie por
la proteína.
Conclusiones y perspectivas
Los efectos plasmónicos que se generan debido a la interacción especial de la
luz con nanoestructuras pueden ser utilizados como señales de transducción
para una nueva generación de microsensores ultrasensibles. En microGUNE no
sólo se está trabajando en la caracterización de estas interacciones para el diseño de las nanoestructuras óptimas sino que también se están desarrollando
tecnologías de nanofabricación avanzas de alto rendimiento, de manera que la
investigación se encamine hacia una futura industrialización. Las barreras tecnológicas y retos en el conocimiento que presentan este tipo de microsistemas
están siendo superados, por lo que las perspectivas de éxito son alentadoras.
49
N
IGA
CIÓ
PRO
YEC
TOS
INV DE
EST
Máquinas portables Modelo de definición de
sus límites funcionales
J. Eguia(1), L. Uriarte(1), A. Lamikiz(2)
(1) IK4 – TEKNIKER, Polo Tecnológico de Eibar.
(2) Departamento de Ingeniería Mecánica, Escuela Técnica Superior de Ingeniería, Universidad del
País Vasco UPV/EHU.
En respuesta a los desafíos ineludibles del proceso de desarrollo de piezas
de gran volumen, la tendencia general es emplear grandes máquinas, muy
problemáticas. Los autores proponen aquí una alternativa y sientan las bases
de una metodología para evaluar el efecto último de las nuevas soluciones.
En los últimos años y en relación con la fabricación de grandes piezas, desde el
ámbito científico se ha propuesto un cambio de modelo que busca acabar con
el dogma “máquinas grande alrededor de y para piezas grandes” en favor de
nuevas máquinas herramienta de pequeño tamaño que puedan ser transportadas hasta la pieza en servicio y que puedan posicionarse con libertad sobre la
misma para realizar la labor de mecanizado. Estas máquinas reciben convencionalmente el nombre de máquinas portables y son la base de un nuevo modelo:
“máquinas pequeñas sobre y para piezas grandes”.
Aún hay aspectos tecnológicos no resueltos en este tipo de máquinas que impiden delimitar claramente sus capacidades, e.g. proyectar cuidadosamente
la configuración cinemática de la máquina, (serie, paralelo, híbrido), plantear
estructuras de máquina optimizadas, con uniformidad de rigidez en todas las
direcciones del espacio de trabajo, libre de chatter, alta rigidez dinámica, bajos
niveles de vibraciones y otras. El presente artículo presenta una metodología
sistemática para el modelizado y diseño de este tipo particular de máquina, y
explora las posibilidades de optimización resultantes de la aplicación el modelo.
INTRODUCCIÓN
Inmersos como estamos en una economía crecientemente globalizada, estamos asistiendo a la tendencia a deslocalizar las industrias basadas en productos
de bajo valor añadido y procesos de fabricación intensivos en mano de obra.
Así, la fabricación de gran cantidad de bienes se ha trasladado hacia lugares con
menores costes salariales. Sin embargo, en aquellos procesos y piezas de gran
responsabilidad esta tendencia es mucho más lenta, cuando no inexistente. Un
caso particular de este tipo de pieza o producto son las piezas mecanizadas de
gran tamaño, como las que se necesitan en sectores tractores como la industria
naval, la energía eólica, las grandes instalaciones científicas etc. De manera muy
clara, el País Vasco se ha destacado por especializar gran parte de su industria
de fabricantes de máquina-herramienta en este mercado: la producción en pequeñas series de maquinas de gran tamaño.
Sin embargo, las máquinas de gran tamaño son complejas de diseñar y precisan inversiones muy importantes durante el proceso de fabricación, montaje y
puesta a punto, tal y como dejaron de manifiesto Uriarte et al [1]. Son, por tanto,
técnica y organizativamente un desafío muy complejo para cualquier empresa.
En los últimos años se ha hecho notar que en la gran mayoría de ocasiones la
geometría a mecanizar no es de gran tamaño, aunque la pieza lo sea. Para estos
casos, se ha propuesto un cambio de modelo que busca acabar con el dogma
“máquinas grandes alrededor de y para piezas grandes” en favor de nuevas máquinas herramienta de pequeño tamaño que puedan ser transportadas hasta el
entorno de la pieza en servicio y que puedan posicionarse con libertad sobre la
PROYECTOS DE INVESTIGACIÓN - Máquinas portables - Modelo de definición de sus límites funcionales
misma. Una vez colocadas, pueden realizar la labor de mecanizado con calidad
equivalente a la de las máquinas grandes. Estas máquinas, inteligentes y de pequeño tamaño, que son llevadas hasta la pieza y son libres para moverse y trabajar sobre ella reciben convencionalmente el nombre de máquinas portables
y son la base del nuevo enfoque “máquinas pequeñas sobre piezas grandes” [2].
Estas máquinas portables han mostrado ser una mejora desde diversos puntos
de vista. Neugebauer et al. [3] demostraron los beneficios energéticos del enfoque de las máquinas portables, a la vez que Zulaika [4] et al. Probaban mejoras
de proceso asociadas a mejoras en la rigidez de componentes de máquinas aun
manteniendo una alta movilidad [5]. Otros beneficios vienen de su capacidad de
miniaturización [6] y de su mayor adaptabilidad, mutabilidad y capacidad multifunción [7].
La literatura científica, sin embargo, no presenta trabajos que traten de modelizar el empleo global de las máquinas portables en un entorno industrial,
centrándose únicamente en aspectos de topología y rigidez. Faltan trabajos
que delimiten las capacidades de estas máquinas y que definan claramente
sus resultados operativos. Por ello, las máquinas portables están teniendo una
implantación muy lenta en la industria. A los usuarios les cuesta prever o anticipar el resultado que van a dar las máquinas portables el mecanizar, reparar o
inspeccionar una pieza concreta, por lo que la industria se muestra reticente a
arriesgar e invertir en este nuevo paradigma de máquina.
El presente artículo presenta un método simplificado y ajustado de modelización de máquinas portables, suficiente para predecir el comportamiento de
las mismas en términos de precisión de la pieza mecanizada. A fin de que el
método sea lo suficientemente general, válido para cualquier configuración, arquitectura y solución de sensorización de la máquina, se apoya en las técnicas
de virtualización recopiladas por Altintas et al. [8]. Se propone, por tanto un método virtual de modelado de máquinas portables suficiente como para predecir
el presupuesto de errores se la máquina y poder representar gráficamente el
empleo de la misma. Se ha aplicado el modelo propuesto sobre una máquina
portable serie empleada a modo de demostrador.
COMPONENTES DEL MODELO
El trabajo se ha basado en el listado de errores descrito por Lamikuz et al. [9], de
los que se han seleccionado los componentes más claramente ligados al funcionamiento de las máquinas portables. En relación con los errores de una máquina herramienta típica, son todos errores a considerar salvo los errores debidos
a las deformaciones térmicas. Esto es así porque una máquina portable pasa la
mayor parte del tiempo desplazándose a los largo de la pieza de gran tamaño, y
opera sobre ella en zonas concretas y durante periodos de tiempo muy cortos.
El efecto del calor generado durante el funcionamiento es por tanto mínimo
dado que a la máquina se le da tiempo a recuperar sus dimensiones nominales
entre operaciones.
En la siguiente tabla se observan los errores finalmente considerados.
Errores de la máquina
Guideway positioning error
Errores por el proceso
Auxiliary Alignment
Systems and the
Reference Set-up
Tool deflection
Uncertainty of the reference position
Tool wear
Effect of reversal of
linear movements
Vibrations
Angular errors
Machine trajectory errors
Errors in the spindle, including
the spindle-shank, shank-collet
and collet-tool interfaces
Figura 1. Caracterización experimental de los componentes
Todos los errores de la máquina de causas deterministas pueden representarse
y analizarse a priori y compensarse durante su utilización. Para los no deterministas, se pueden representar en base a una incertidumbre caracterizada a
partir de las desviaciones típicas de una serie de ensayos experimentales. En
cuanto a los errores del modelo de rigidez y el proceso, se pueden representar
fielmente caracterizando las fuerzas de proceso e introduciéndolas en un modelo de rigidez de la máquina suficiente. En cuanto a los errores de referenciación,
se ha seguido una metodología que permita su caracterización homogénea con
el resto de errores de máquina a fin de que pueda ser introducido en el mismo
sistema de análisis. El modelo ha sido creado sobre el software MSC ADAMS.
El modelo de proceso: rigidez y fuerzas de
proceso
Cualquier estructura de máquina puede ser modelada mediante elementos finitos. En cuanto a los apoyos de la máquina sobre la estructura, el sistema de
cabezal más herramienta, estos se han estudiado experimentalmente. En cuanto al cabezal, se ha realizado un análisis modal experimental en configuración
libre-libre y la FRF resultante se ha incluido en el modelo FEM de la máquina.
De forma equivalente, tanto los apoyos mediante ventosa como el conjunto
porta-herramienta más pinza más herramienta se han ensayado experimentalmente e introducido en el modelo.
A partir de aquí, las fuerzas de proceso pueden obtenerse según Gonzalo et
al. E introducirse en el modelo ADAMS sincronizadas con las trayectorias de la
punta de herramienta a fin de simular el proceso. De esta forma, queda cubierta
y representada en el modelo virtual la interacción pieza – proceso – máquina.
El modelo de errores máquina
En el mismo modelo ADAMS, se ha introducido “El modelo de los 21 errores”
de una fresadora convencional tecnológicamente equivalente. Se trata de una
síntesis de los componentes de error volumétrico, por lo que se considera una
forma eficaz (y simple) de representar todos los errores de la máquina. El modelo se basa en la cinemática de cuerpos rígidos, considerando por lo tanto
la hipótesis que todos los cuerpos son rígidos y que el movimiento de uno no
afecta a los demás. Bajo esta hipótesis, el modelo de los 21 errores encuentra
el origen del error volumétrico de la máquina en cada eje de movimiento, por
lo que se facilita las posteriores compensaciones mecánicas y representación
virtual, como es el caso.
Figura 1. Esquema del modelo.
Para el modelo, se ha medido en una máquina equivalente cada error de forma
directa con el movimiento del eje que corresponde en un sistema de referencia
propio. El modelo ADAMS se encarga de propagar estos errores a través de los
sistemas de referencia
51
pieza ejecutados en el CAM de tal forma que una determinada operación puede
ser realizada con una sola programación e independientemente de la posición
relativa final entre máquina y pieza.
Para poder realizar todo ello, en primer lugar se calibró el sensor láser según se
describe en [11]. Se empleó un artefact consistente en tres esferas calibradas
que se medían mediante un láser tracker externo y nuestro escáner. En el sistema de coordenadas máquina y en el sistema de coordenadas del láser, los centros de las esferas son puntos conjugados (xw, yw, zw, 1) y (xs, ys, zs, 1) que se
relacionan mediante una matriz de transformación homogénea desconocida.
t11 t12 t13 p1
WsT = t21 t22 t23 p2
t31 t32 t33 p3
0
0
0 1
De forma qué (xw, yw, zw, 1)T = wsT (xs, ys, zs, 1)T
De [11], sabemos que
t112 + t212 + t312 = 1
t122 + t222 + t322 = 1
t132 + t232 + t332 = 1
t12t13 + t22 t23 + t32t33 = 0
Figura 2. Caracterización experimental de los componente
Las incógnitas pueden obtenerse resolviendo el siguiente problema de minimización
El modelo de referenciación
Min F = Σ IPwi – wsT PsiI2 + λ1( t112 + t212 + t312– 1) + λ2(t122 + t222 + t322
– 1) + λ3(t132 + t232 + t332 – 1) + λ4 (t12t13 + t22 t23 + t32t33)
Toda máquina portable precisa de un sensor maestro que ayude a ubicarlo con
respecto a la pieza que va a mecanizar. Es habitual emplear palpadores como
método de obtención de las posiciones relativas [10], pero el palpado exige una
supervisión por parte del operario que le resta universalidad y flexibilidad de
uso. En la presente investigación se ha optado por un escáner laser lineal que se
emplea para identificar referencias naturales en las piezas. Siguiendo el desplazamiento de las nubes de puntos y comparándolas entre sí mediante algoritmos
ICP (Iterative Closest Point), se puede deducir el desplazamiento realizado por
la máquina. Más aún, si la comparativa se realiza entre una nube de puntos y
el CAD, es posible determinar la posición y orientación relativa entre la pieza
y la máquina representado como una matriz de transformación homogénea.
Empleando esta matriz de transformación el CNC puede rehacer los programas
Una vez calibrado el sensor, se ha caracterizado la precisión y repetitividad que
da el sistema de referenciación propuesto. Para ello, sobre una fresadora convencional se han instalado el láser como sensor y como blanco la pieza NAS definida en según UNE 15450 – 7. Se han creado desplazamientos controlados de
la pieza sobre la mesa (15 repeticiones por punto) y se ha ejecutado el esquema
propuesto. De estos ensayos se ha obtenido que el error medio del método es
de 0.15 mm (max. 0.3 mm) con una desviación típica de entre 0.02 mm y 0.14
mm para desplazamientos lineales, y de error medio: 0.04º y Desviación típica
de entre 0.02º - 0.9º para el caso de desplazamientos angulares. En el modelo
ADAMS, estas medias y desviaciones típicas se pueden introducir como un offset de distribución normal con la media y las varianzas caracterizadas.
El modelo de uso
Según se ha explicado previamente, las máquinas portables se desplazan sobre
piezas grandes y trabajan sobre ellas dentro de su pequeño volumen de trabajo. Mientras mecaniza la pieza, la máquina portable puede estar fija/quieta o
desplazarse ella misma. Este segundo caso es el más complejo de representar,
modelizar y optimizar. Para todo ellos, se ha acoplado al modelo de máquina
de ADAMS un bloque/sistema de Simulink que permite repartir las trayectorias
dictadas por un programa del CAD al CNC entre los distintos accionamientos.
Es decir, suponiendo un volumen de trabajo más grande que la propia pieza,
hay que descomponer la misma en tantos trozos como necesite la máquina
portable según su volumen de trabajo. Las trayectorias globales se dividen entre los movimientos de los ejes dentro de cada cuadrado y el movimiento de la
máquina de cuadrado en cuadrado, según la siguiente figura.
Figura 3. Esquema del sistema de referenciación desarrollado
Esta descomposición se puede realizar de forma muy simple según Dijkstra, Floyd-Warshall o Bellman-Ford, y la descomposición de trayectorias entre sistemas
se resuelve e integra en el modelo Simulink según Armentia et al [12], usando o
bien un filtro de primer orden o la identificación de sistemas. Esto permite el
modelizar todos los casos, sea mecanizado con máquina fija o con máquina
móvil.
PROYECTOS DE INVESTIGACIÓN - Máquinas portables - Modelo de definición de sus límites funcionales
de caracterizar e introducir estos elementos en un modelo. Como resultado, se
obtiene un modelo amplio, integrado y muy completo que sirve para predecir el
resultado final de la operación. Asimismo, permite al diseñador la optimización
de sus múltiples elementos y el ajuste a una determinada aplicación de forma
muy directa.
Figura 4. Descomposición automática de una operación según el espacio de trabajo cuadrado en orientación aleatoria
OPTIMIZACIÓN Y MEJORAS
La existencia de un modelo virtual de la máquina, desde su estructura a su uso
para mecanizado, permite no solo anticipar el funcionamiento global de las
mismas sino optimizar su concepto y sus componentes para una determinada
aplicación. De esta forma, y sin incurrir en costes de desarrollo prohibitivos, se
pueden ajustar los desarrollos a las necesidades y maximizar las prestaciones
deseadas del sistema.
En el caso de la presente investigación, se ha optimizado el uso del sistema
para acometer operaciones de reparación, recuperación de superficies, repaso de soldaduras e inspección durante la fase de ensamblado de los distintos
subsectores que conforman la cámara de vacío toroidal del nuevo Reactor Experimental de Fusión ITER. En esta aplicación, se exige el acceso a puertos y zonas de pequeños dimensiones y operaciones de mecanizado con brazos de par
muy elevados, por haber penetrado el cabezal en una cavidad notablemente
distante de los apoyos de la máquina. Con vistas a esta aplicación, se ha empleado el modelo para optimizar la rigidez del sistema minimizando el peso del
sistema completo. El resultado es un modelo de máquina equivalente el peso a
las empleadas en el proyecto ITER pero con una rigidez muy superior, como se
ha descrito en [13]
Figura 6. Estructura de máquina optimizada para el mecanizado sobre la vasija de ITER
REFERENCIAS
[1] L. Uriarte, M. Zatarain, D. Axinte, J. Yagüe-Fabra, S. Ihlenfeldt, J. Eguia, A.
Olarra. Machine tools for large parts. CIRP Annals Manufacturing Technology.
[2] J. Allen, D. Axinte, P. Roberts. A review of recent developments in the design
of special-purpose machine tools with a view to identification of solutions for
portable in situ-machining systems. Int. J. Adv. Manuf. Technol (2010) 50:843-857.
[3] R. Neugebauer, M. Wabner, H. Rentzsch, s. Ihlenfeldt. Structure
principles of energy efficient machine tool. CIRP Journal of Manufacturing,
Science and Technology Volume 4, Issue 2, 2011, Pages 136 – 147.
[4] Zulaika, J., Campa, F. J., 2009, New concepts for structural components,
Machine Tools for High Performance Machining, London, Springer Verlag, 47-73.
[5] Schwaar, M., Schwaar, T., Ihlenfeldt, S., Rentzsch, H., 2010, Mobile 5-axes
machining centres, ICMC 2010 - Sustainable Production for Resource
Efficiency and Ecomobility, pp. 169-184, 29-30 Sept., Chemnitz, Germany.
[6] Liow, J.L., 2009, Mechanical micromachining: a sustainable micro-device
manufacturing approach? Journal of Cleaner Production, 17:662–667.
[7] Moriwaki, T., 2008, Multi-functional machine
tool, Annals of the CIRP, 57/2:736–749.
[8] Altintas Y., Brecher C., Weck M., Witt S., Virtual Machine Tool, CIRP Annals
- Manufacturing Technology, Volume 54, Issue 2, 2005, Pages 115-138.
[9] A. Lamikiz, L. N. Lopez de Lacalle and A. Celaya, Machine Tool
Performance and Precision, Machine Tools for High Performance Machining
- Chapter 6, p 219 -260, Springer, 2009, ISBN 978-1-84800-380-4
[10] H.-C. Möhring, Fast reacting maintenance of forming tools with a transportable
machining unit, CIRP Annals - Manufacturing Technology 58 (2009) 359–362.
Figura 5. Tratamiento de las trayectorias y descomposición entre ejes máquina y ejes mecanizado trabajo cuadrado en orientación aleatoria
CONCLUSIONES
En el presente documento se ha presentado una metodología virtual para modelizar y caracterizar de forma completa el uso de nuevas máquinas portables.
Se han identificado los principales componentes (rigidez, anclaje, estructura y
referenciación) que influyen en su desempeño y se ha propuesto una forma
[11] Chenggang Chea, Jun Nib , A ball-target-based extrinsic calibration
technique for high-accuracy 3-D metrology using off-the-shelf laserstripe sensors, Journal of the International Societies for Precision
Engineering and Nanotechnology, 24 (2000), 210–219.
[12] M. Armendia, J. Madariaga, I. Ruiz de Argandoña; Axis
On Axis System To Improve Machine Tool Productivity, 9th
International High Speed Machining, March 2012.
[13] Josu Eguia, Aitzol Lamikiz, Jesús Alonso, New portable machine for the in-situ
inspection, repair and manufacturing of complex features in remote locations
within the vacuum vessel of ITER, Symposium of Fusion technology, SOFT 2014.
53
VE
BRE
I EN
KAD
EUS
Una investigación del CIC
nanoGUNE abre nuevas
oportunidades para el desarrollo de
dispositivos y circuitos fotónicos
más pequeños y rápidos
Se trata de un experimento que muestra que la luz guiada en el grafeno
puede ser dirigida y curvada siguiendo los principios fundamentales de
la óptica convencional.
Investigadores de CIC nanoGUNE, en colaboración con el ICFO y Graphenea, han desarrollado una plataforma tecnológica basada en antenas metálicas que permiten atrapar y controlar la luz que se propaga a lo largo del grafeno, un material de un solo átomo de espesor.
Tinta con
nanoparticulas
para un
diagnóstico rápido
CIC biomaGUNE propone una
novedosa técnica para sustituir los
sustratos utilizados para la detección
de sustancias químicas y facilitar
el diagnóstico rápido mediante
nanoparticulas de oro o plata en tintas
convencionales.
Los experimentos realizados muestran que los principios fundamentales y más importantes de la óptica
convencional también se aplican a los plasmones del grafeno, es decir, a luz extremadamente comprimida que se propaga a lo largo de una sola capa de átomos de carbono. Los futuros desarrollos basados
en estos resultados podrían conducir a circuitos y dispositivos ópticos extremadamente miniaturizados
que podrían ser utilizados en aplicaciones de detección y computación.
La prestigiosa revista científica Science ha publicado dicho trabajo.
La revista científica “Small” ha publicado un proyecto dirigido por el Dr. Luis Liz Marzán, director científico de CIC
biomaGUNE, que incorpora nanopartículas de oro y pla-
EUSKADI EN BREVE
ta a la tinta convencional, la misma que incorporan nuestros bolígrafos o plumas, como solución avanzada para
identificar moléculas en ámbitos como el diagnóstico
médico, la biología, el medioambiente, la seguridad, etc.
Es decir, la tinta no solo va a ser conductora de mensajes, emociones, elaborados ensayos o noticias en los
periódicos, sino que, a su vez, se puede convertir en una
herramienta óptima, barata y de fácil acceso para que
un investigador o un médico pueda extraer conclusiones
a escala molecular que hasta ahora requerían de gran
instrumentación técnica y elevado coste económico. Sólo
requerirá de una pluma estilográfica y un folio DIN A4.
El futuro de las microtecnologías
en la industria analizado por el CIC
microGUNE
Investigadores y profesionales del mundo industrial conocen las líneas
de investigación y los retos de futuro.
El estudio, realizado en el centro con sede en Donostia-San Sebastián, propone una nueva técnica cuya
principal aportación consiste en facilitar y abaratar la
creación de los sustratos químicos que se utilizan para
identificar moléculas en cualquier campo de actuación,
moléculas que son analizadas y descritas por medio de
equipos de espectroscopía. En definitiva, se espera que
esta técnica contribuirá, por ejemplo, al diagnóstico rápido de enfermedades.
Tecnalia gana
el “Óscar” a la
innovación
EARTO otorgó el pasado año su Premio
a la Innovación 2014 al proyecto
Biosimil de TECNALIA, un buscador
informático de muestras biológicas
y médicas que contribuye a mejorar
el diagnóstico y tratamiento de
enfermedades.
El workshop organizado por el CIC microGUNE ha sido el punto de partida para ofrecer a investigadores
y profesionales del mundo industrial las claves sobre la importancia que tienen las microtecnologías en
la industria vasca y los retos de futuro que se plantean. Los avances en relación a los microsistemas en
ambientes hostiles y en el ámbito de la salud completaron esta jornada en la que se ha hablado también
de innovación, automoción y salud.
A partir de las intervenciones de los participantes, se han conocido diferentes opiniones en relación al
futuro de las microtecnologías desde el punto de vista empresarial y de usuario final. Marisa Arriola, de
BIC Berrilan, expuso los retos de las empresas guipuzcoanas, Mikel Lorente, del Cluster de Automoción,
habló sobre la orientación de la investigación en función de las empresas del sector de la automoción,
presentando sus actividades. Por su parte, Raquel Benito, del Hospital Universitario de Cruces – IIS
BioCruces, ha basado su ponencia en la creatividad como herramienta para la innovación, y Jaime Castillo, de Enaiden, basó su visión, como emprendedor, sobre los retos de las microtecnologías para la
industria vasca.
El Premio, considerado el “Óscar” a la Innovación, se entregó en Bruselas en presencia de Joaquín Almunia. Con
este Premio, EARTO quiere recompensar las mejores
innovaciones que se desarrollan en Europa, basándose
en la viabilidad de su puesta en marcha, así como en el
impacto social y económico que suponen.
Biosimil ha sido desarrollado por TECNALIA en el marco
del proyecto sanitario Biopool, liderado por el Biobanco
Vasco para la Investigación y el equipo de ComputerVision de TECNALIA.
55
CIC tourGUNE y
la OMT renuevan
su compromiso de
colaboración
El Memorando de Entendimiento sella
la voluntad de las dos entidades en
seguir colaborando en los retos del
sector turístico.
CIC bioGUNE celebra su décimo
aniversario y reordena las áreas de
actuación científica
El centro, inaugurado en 2005, acometerá nuevos proyectos y
focalizará su actividad alrededor de cuatro grandes ámbitos: cáncer,
enfermedades infecciosas, metabolismo y enfermedad y homeostasis
de proteínas.
La Tercera Cumbre Mundial sobre el Turismo Urbano
celebrada en Barcelona ha servido para refrendar el
compromiso de colaboración entre CIC tourGUNE y la
Organización Mundial del Turismo (OMT). A través del
Memorando de Entendimiento ambas entidades se comprometen a seguir profundizando en los retos del sector
turístico.
En la cita de Barcelona también se presentó la publicación Global Benchmarking for City Tourismn, elaborada
por CIC TourGUNE. Este trabajo trata de llevar a lo local
la reflexión que viene realizándose en torno a la medición del turismo a nivel subnacional y el trabajo de consensuar estándares a nivel internacional, en el marco de
la Red INRouTe, cuya Secretaría General corresponde a
CICtourGUNE.
Tras diez años de andadura, CIC bioGUNE es una realidad dentro del panorama científico nacional e
internacional como agente generador de conocimiento en el área de las biociencias. Sus investigaciones
de vanguardia en la interfaz entre biología estructural, molecular y celular, con especial atención al estudio de las bases moleculares de la enfermedad, tienen como destino su desarrollo en nuevos métodos
de diagnóstico y terapias avanzadas.
Con el objetivo de continuar su proyección dentro de los institutos de investigación de primer nivel, CIC
bioGUNE se prepara para un nuevo tiempo reordenando las áreas de actuación científica y focalizando
su actividad alrededor de cuatro grandes ámbitos: cáncer, enfermedades infecciones, metabolismo y
enfermedad y homeostasis de proteínas.
José María Mato continuará liderando la dirección general de CIC bioGUNE y CIC biomaGUNE, especializado en los nanobiomateriales, pero delegará la dirección de la estrategia científica en el reconocido
químico Jesús Jiménez Barbero, actual presidente de la Real Sociedad Española de Química.
Durante esta década CIC bioGUNE ha publicado más de 500 artículos en revistas científicas internacionales, se han concedido cuatro patentes, tres de las cuales están en explotación, y hay otras cuatro
más solicitadas. Las fondos recibidos alcanzan los 90 millones de euros, si bien los investigadores de
CIC bioGUNE han conseguido un total de 44 millones de euros en proyectos competitivos. Asimismo, el
centro ha participado en la creación de tres empresas.
EUSKADI EN BREVE
Congreso internacional de baterías
avanzadas de litio en Bilbao
CIC Energigune será este año el anfitrión de la 8ª Conferencia
Internacional sobre baterías avanzadas de litio para automóviles,
ABAA8. El congreso, que se celebrará en el Palacio Euskalduna de
Bilbao del 30 de septiembre al 2 de octubre, es la primera vez que se
organiza en España y es el principal encuentro mundial para debatir y
compartir los progresos en la investigación y desarrollo de las baterías
de litio en el sector del automóvil.
CIC biomaGUNE y
la Universidad del
País Vasco unidos
en la investigación
de nuevos
tratamientos
neuroprotectores
Investigadores de los dos centros han
identificado una molécula clave que
podría conducir al desarrollo de nuevas
terapias para paliar el daño cerebral.
ABAA8 reunirá durante tres días a los principales expertos internacionales en el campo de las baterías
de litio que se diseñan para automóviles, desde investigadores y académicos hasta representantes de
las industria automovilística y de baterías, contando también con una importante representación institucional internacional.
Las baterías de litio son fundamentales para desarrollar una nueva generación de automóviles eficientes,
desde los híbridos hasta los 100% eléctricos. Entre otros aspectos, se presentarán los avances en nuevos
materiales, la seguridad de las baterías, su diseño o nuevas formas de almacenamiento de la energía.
CIC Energigune, que fue designado como organizador de la conferencia el año pasado en Japón, ha preparado un ambicioso programa en colaboración con “Argonne National Lab” y la “International Automotive Lithium Battery Association”. Las inscripciones están ya abiertas en: http://abaa8.cicenergigune.com/
CIC marGUNE coordina una línea
de investigación sobre uniones de
materiales disimilares
El proyecto busca desarrollar tecnologías que permitan obtener
componentes de mayor valor añadido. Los sectores de automoción y
aeronáutica serían los principales beneficiados.
La isquemia cerebral se produce como consecuencia de la
disminución transitoria o permanente del flujo sanguíneo
cerebral y causa daño neuronal irreversible que provoca
alteraciones neurológicas. Una parte importante de este
deterioro se debe a la alteración en los niveles de glutamato, el neurotransmisor excitador más abundante del
cerebro que actúa a su vez como una potente neurotoxina
cuando su concentración se eleva, como ocurre durante
la isquemia.
Según el hallazgo de los investigadores de la UPV/EHU y
del CIC biomaGUNE, la molecula xCT, el intercambiador
cistinaglutámico se acumula hasta niveles letales para las
neuronas durante la isquemia. Y así lo han comprobado
en modelos experimentales que reproducen las principales características del ictus en pacientes.
Los investigadores del CIC biomaGUNE, mediante técnicas
de imagen cerebral funcional como el PET (del inglés, Tomografía por emisión de positrones) han observado que
los niveles de xCT están elevados en ratas sometidas a isquemia, lo cual subraya su importancia en el proceso de
ictus.
El CIC marGUNE, Centro de Investigación Cooperativa de Fabricación de Alto Rendimiento, trabaja en la
línea de unión de materiales híbridos con el objetivo de desarrollar tecnologías que permitan obtener
componentes de mayor valor añadido por unión de materiales disimilares.
Como conclusión, se deriva que esta investigación desarrollada en animales de experimentación abre la puerta
al desarrollo de nuevos tratamientos neuroprotectores,
mediante fármacos dirigidos contra el intercambiador xCT
con objeto de la isquemia cerebral.
La Escuela Politécnica Superior de la Universidad de Mondragon, IK4-Lortek, IK4-Azterlan, IK4-TEkniker y
Tecnalia colaboran en el marco de este Proyecto de investigación estratégica InProRet (Etorterk) coordinado por CIC marGUNE. El sector de la automoción es el principal beneficiado de esta tecnología, también aplicable a la aeronáutica, ya que su objetivo es reducir el peso de los vehículos y, en consecuencia,
el consumo de combustible y los gases de efecto invernadero.
La revista Journal of Clinical Investigation ha publicado los
resultados de este estudio realizado por los investigadores María Domercq y Carlos Matute, del centro Achucarro
y la UPV/EHU, y por Abraham Martín, investigador del CIC
biomaGUNE de Donostia - San Sebastián.
57
Midatech Biogune liderará el
proyecto NanoFacturing durante
los próximos cuatro años
La plataforma de fabricación escalable apoyará la amplia gama de
productos nanofarmacéuticos que se están desarrollando en Europa
La empresa vasca Midatech Biogune acaba de ser elegida para liderar el ambicioso proyecto europeo
NanoFacturing para la producción de nanopartículas con la acreditación europea de GMP (Good Manufacturing Practice). El proyecto, que se desarrollará durante estos próximos cuatro años, cuenta con una
asignación económica total de ocho millones de euros por parte de la Comisión Europea, en el marco
del Programa Horizon 2020, de los que 3,4 millones de euros recaerán en la empresa vasca.
NanoFacturing es una plataforma de fabricación escalable con el fin de apoyar la amplia gama de productos nanofarmacéuticos que se están desarrollando en Europa, incluyendo los propios medicamentos conjugados en condiciones GMP de Midatech Biogune. En este proyecto van a participar también
empresas e institutos de diferentes países europeos: Centre for Process Innovation Limited (Reino
Unido), Prochimia Surfaces (Polonia), Galchimia (España), el University College Dublin y la National University de Irlanda, el centro tecnológico Applus S.A. LGAI (España), IFOM, la Fondazione Istituto FIRC di
Oncología Molecular (Italia), y la Ecole Polytechnique Federale de Lausanne (Suiza).
Midatech Biogune es filial de la británica Midatech Pharma y se dedica desde el año 2006 al diseño,
desarrollo, síntesis y producción de nanomedicinas.
Se presenta i-Sare
Microgid Gipuzkoa,
primera micro
red experimental
operativa del
Estado
Esta infraestructura resultará clave
para el desarrollo de soluciones
avanzadas en torno a las redes
eléctricas
i-Sare Microgrid Gipuzkoa es la primera micro red experimental operativa del Estado con 400kW de potencia y
servirá como banco de ensayo para desarrollar y experimentar la eficacia y viabilidad de diferentes tecnologías
de generación y almacenamiento eléctrico. Su puesta en
marcha servirá a las empresas vascas del sector como
plataforma de desarrollo de nuevos productos, equipos
y servicios.
Las micro redes inteligentes son sistemas eléctricos que
combinan equipos gestionados de forma coordinada,
para poder ajustar al máximo la energía generada a la
que se demanda en cada momento, buscando siempre
la mayor eficiencia. El proyecto i-Sare está liderado por
la Diputación Foral de Gipuzkoa, en colaboración con el
Cluster de Electrónica, Informática y Telecomunicaciones
del País Vasco (GAIA-Cluster TEIC), IK4 Research Alliance,
Jema Energy, Cegasa Internacional, Electro TAZ, Ingesea,
Oasa Transformadores, IK4-Cidetec e IK4-Tekniker. Además cuenta con Ceit-IK4, Fomento de San Sebastián e
Iberdrola, como socios colaboradores.
Para su puesta en marcha se han invertido 7 millones de
euros cofinanciados por la Diputación Foral de Gipuzkoa,
el Programa Operativo FEDER del País Vasco (2007-2013)
y las empresas y centros tecnológicos que participan en
el proyecto.
EUSKADI EN BREVE
El DIPC y el
Instituto Max
Planck de Óptica
Cuántica firman
un convenio de
colaboración
El acuerdo entre el centro donostiarra y
el Instituto alemán busca el desarrollo
de proyectos científicos innovadores
que combinen líneas de investigación
en las que ambas instituciones son
líderes
TECNALIA participa en el KIC RAW
MATTERS DE H2020
Junto a la Corporación Mondragón, trabajará para abordar la
problemática del suministro de materias primas en Europa,
formando parte de un KIC (Knowledge and Innovation Communities),
denominado KIC Raw MatTERS, que es una comunidad de excelencia e
innovación orientada a aportar soluciones a los grandes retos sociales
y económicos a los que se enfrenta la Unión Europea, referentes a la
sostenibilidad y el suministro de materias primas.
La participación en este ambicioso programa europeo supondrá la atracción a Euskadi de proyectos de
I+D y de iniciativas empresariales muy relevantes que generarán nuevos empleos de alta cualificación
alrededor de la sostenibilidad y las materias primas. Participan también la UPV/EHU y empresas como
Indumental, Gerdau o Calcinor en un consorcio de 116 socios.
El presidente del Donostia International Physics Center
(DIPC), Pedro Miguel Etxenike, y el director del Instituto
Max Planck de Óptica Cuántica (MPQ), Juan Ignacio Cirac,
han firmado un acuerdo de colaboración entre ambos
centros. Tanto el DIPC (Donostia) como el MPQ (Garching, Alemania) son centros de investigación fundamental en física, principalmente, en los campos de la física
de la materia condensada y ciencia de materiales, y física
atómica y óptica cuántica, respectivamente.
Este convenio ratifica la colaboración ya existente entre
los dos centros y se marca un nuevo objetivo: impulsar
vías de colaboración y profundizar la relación entre los
investigadores de los citados centros. De este modo, se
pretende fomentar la contratación de personal investigador, el intercambio de profesionales, la organización de
congresos, seminarios y otras actividades. Asimismo, el
acuerdo busca el desarrollo de proyectos científicos innovadores que combinen líneas de investigación en las
que el DIPC y el MPQ son ya líderes.
El instituto alemán forma parte de la red de 83 centros
de investigación de la Sociedad Max Planck, una sociedad
científica con un presupuesto anual de unos 1.500 millones de euros, una plantilla de más de 21.000 empleados
de los cuales unos 5.000 son científicos y que tiene en su
haber a 17 premios Nobel.
El proyecto Biopool, liderado por
el Biobanco Vasco, calificado
de ‘excelente’ por la Comisión
Europea
Destaca su impacto social y económico tras haber desarrollado un
innovador buscador de muestras biológicas
Tras dos años de trabajo, el proyecto Biopool ha obtenido la calificación de “excelente” por la Comisión
Europea al haber demostrado la viabilidad de su puesta en marcha y su impacto social y económico.
Biopool es una herramienta para investigadores de hospitales, universidades, centros de investigación
y compañías biofarmacéuticas que les facilitará su trabajo para hallar muestras biológicas que les ayuden a avanzar en su investigación, acelerar descubrimientos y mejorar los tratamientos a los pacientes.
BIOPOOL ha sido financiado por la Comisión Europea dentro del VII Programa Marco y liderado por
el Biobanco Vasco (BIOEF) en colaboración con los Servicios de Anatomía Patológica de HU Cruces, H
Galdakao, HU Basurto, HU Araba de Osakidetza y Onkologikoa, en el que también han participado otras
seis entidades europeas, dos de ellos vascas, la corporación tecnológica Tecnalia y la empresa eMedica.
BIOPOOL ha supuesto un salto tecnológico, ya que soluciona las barreras que conlleva trabajar con
biobancos de diferentes países, donde se encuentran las muestras biológicas que los investigadores
requieren para llevar a cabo los proyectos de investigación. El proyecto está financiado por la Comisión
Europea bajo el Séptimo programa marco. El consorcio BIOPOOL une la amplia experiencia de siete
socios: BIOEF (Biobanco Vasco), TECNALIA, eMedica, Cultek, EMC biobank, Pertimm, Brunel University,
provenientes de cuatro países de la Unión Europea.
59
El CIC Energigune
desarrolla unas
nuevas espumas
de carbono
que permitirán
una mayor
conductividad
eléctrica y térmica
Este nuevo material destaca por
sus aplicaciones que van desde el
almacenamiento de energía hasta
la aeronáutica, la construcción o
microelectrónica
Investigadores del Área de Almacenamiento Térmico del
CIC Energigune están desarrollando unas nuevas espumas de carbono que, a pesar de nacer con una orientación inicial centrada en el almacenamiento de energía,
presentan una serie de características especiales que
pueden permitir su aplicación en múltiples sectores
como construcción (paneles), el sector aeronáutico, automoción, microelectrónica o aplicaciones de filtrado,
entre otras.
Estas espumas, para las que el centro ubicado en el Parque Tecnológico de Álava ya ha solicitado una segunda
patente, tienen una estructura macro y mesoporosa
que implica una mayor superficie específica, una menor
densidad y una mayor porosidad, lo que redunda en una
mayor conductividad eléctrica y térmica, combinada con
una mejor estabilidad y resistencia mecánica.
CIC Energigune pretende proteger con estas patentes un
proceso de fabricación que destaca por su estabilidad,
simplicidad y por una reducción de coste muy relevante
frente a los procesos existentes en la actualidad para la
fabricación de espumas similares.
Los responsables del centro de investigación sobre almacenamiento de energía están ahora en conversaciones
con diferentes empresas vascas para buscar vías de colaboración que permitan incorporar estas nuevas espumas
de carbono al mercado.
El grupo de
Neuropsicofarmacología de la
UPV-EHU participa en el proyecto
público-privado Spark
El objetivo es desarrollar un fármaco que combata los déficits
cognitivos de la esquizofrenia
El grupo de Neuropsicofarmacología de la UPV/EHU se ha unido al consorcio liderado por la biotecnológica Iproteos e integrado por IRB Barcelona, el Centro de Regulación Genómica y la empresa Ascil-Biopharm en un proyecto denominado Spark.
Esta iniciativa público-privada tiene como objetivo desarrollar la primera fase de desarrollo preclínico
de un fármaco first-in-class que prevenga, frene la evolución y revierta los déficits cognitivos asociados
a la esquizofrenia y otros trastornos mentales. En la actualidad no existe ningún fármaco para estas
lesiones asociadas a la tercera enfermedad más incapacitante según la OMS.
El grupo de Neuropsicofarmacología de la UPV/EHU es un referente internacional en el estudio de los
sustratos biológicos de las enfermedades mentales y en el desarrollo de nuevos y más eficaces tratamientos para las mismas. Dentro del proyecto Spark, será el responsable de la ratificación de la actividad de las formulaciones mediante estudios en vivo en modelos animales de esquizofrenia.
3 5 días
conectados a la
ciencia
www.cicnetwork.es
a un click de la actualidad científica vasca
A
FIC
NTÍ
CIE
LID
AD
ACT
UA
PREMIOS
Premio
BBVA de
Biomedicina
a la oncología
personalizada
del cáncer
Hunter, Schlessinger y Sawyers
galardonados por hacer posible el
tratamiento personalizado de esta
enfermedad
El Premio Fundación BBVA Fronteras del Conocimiento en Biomedicina ha recaído en su séptima
edición en Tony Hunter, director del Cancer Center
del Salk Institute; Joseph Schlessinger, director del
departamento de Farmacología de la Facultad de
Medicina de la Universidad de Yale; y Charles Sawyers,director del programa de Oncología Humana y
Patogénesis del Memorial Sloan Kettering CancerCenter de Nueva York, todos ubicados en EE.UU. La
Fundación BBVA señala que los tres premiados han
sido galardonados por “recorrer el camino que ha
llevado al desarrollo de una nueva clase de eficaces
fármacos contra el cáncer”. Estos nuevos medicamentos, aprobados a lo largo de la última década,
se diferencian de la quimioterapia tradicional en
que atacan específicamente los mecanismos que
causan cada cáncer y, en consecuencia, son menos
tóxicos para el paciente. De hecho, son los primeros que resultan del conocimiento profundo de la
biología del cáncer, y no de pruebas genéricas de
actividad de moléculas. El imatinib, aprobado en
2001, inauguró esta nueva clase de medicamentos
convirtiendo la leucemia mieloide crónica, prácticamente letal hasta entonces, en una enfermedad
casi siempre tratable. En la actualidad ya existen
varias decenas de estos fármacos apodados ‘diana’, que se usan en más tipos de cáncer como pulmón, mama, melanoma y linfomas.
ENERGÍA
Muere Charles
Townes,
uno de los
inventores del
laser
Esta desaparición se produce en plena
celebración del Año Internacional de la Luz
El El físico Charles Hard Townes, uno de los tres
galardonados con el Premio Nobel de Física de
1964 –junto a los rusos Nikolay Basov y Alexander Prokhorov– por la invención del láser, falleció
a finales de enero en la localidad californiana de
Oakland. En julio de este año hubiera cumplido los
100 años.
El científico fallecido es conocido por sus investigaciones sobre la teoría y la aplicación del máser
(acrónimo de microwave amplification by stimulated emission of radiation), un amplificador de mi-
croondas por la emisión estimulada de radiación),
así como por sus trabajos en electrónica cuántica,
donde conectaba los dispositivos máser y láser. El
científico fue pionero en usar ambos para el campo
de la astronomía.
Está triste noticia se produjo sólo unos días después de que París acogiera la ceremonia de inauguración del Año Internacional de la Luz, una
iniciativa auspiciada por la UNESCO y en la que participarán más de cien asociaciones científicas de 85
países. A lo largo de este año, charlas, exposiciones y eventos de todo tipo buscarán concienciar al
público sobre la importancia de las investigaciones
acerca del fenómeno luminoso. El Año Internacional de la Luz pretende también comunicar a la sociedad la importancias de la luz, y sus tecnologías
asociadas, en el mundo actual en áreas tan importantes como la energía, la educación, la saludo la
comunicación, entre otras.
A lo largo de todo este año 2015, las entidades
colaboradoras de la iniciativa organizarán exposiciones, charlas y proyectos educativos y divulgativos de todo tipo. Los organizadores han creado
una página web www.light2015.org y, en español,
www.luz2015.es donde se pueden consultar todas
las actividades. Desde CICNetwork hemos querido
también poner nuestro granito de arena a esta celebración dedicándole los artículos centrales de la
revista.
ACTUALIDAD CIENTÍFICA
BIOCIENCIAS
Una prótesis
de médula
casi natural
E-Dura permite estimular la médula
espinal durante meses sin fricciones ni
daños, lo que favorece la recuperación del
movimiento de las extremidades
BIOMEDICINA
MOVILIDAD
Descubierto un nuevo antibiótico amplio,
potente y capaz de evitar la resistencia
bacteriana por espacio de décadas
El calentamiento global puede obligar a las
compañías aéreas a reducir el peso de los
aviones y a aumentar los costes
Abajo la
resistencia
¿Aviones a
dieta?
¿Por qué la teixobactina es un hito fundamental en
la investigación biomédica? La razón fundamental
es que este antibiótico, descubierto recientemente por un grupo internacional de investigadores,
es capaz de hacer frente a una gran variedad de
bacterias y no genera una resistencia inmediata.
Aunque es difícil determinar si en un futuro las
bacterias desarrollarán algún tipo de fortaleza, lo
que está claro es que esto no sucederá hasta dentro de varias décadas.
La teixobactina muestra una excelente actividad
frente a las bacterias causantes de enfermedades
como colitis, tuberculosis, conjuntivitis, meningitis
y neumonía. El fármaco, cuya principal novedad
es que elimina las bacterias atacando sus paredes
celulares, se ha testado en ratones, sin efectos tóxicos adversos.
La colocación de un dispositivo electroestimulador
bajo la duramadre, la envoltura que protege el sistema nervioso, es una de las técnicas más eficientes para tratar las lesiones en la médula espinal. El
problema es que estas prótesis son rígidas y rozan
con el tejido nervioso cuando se mueve, lo que
causa inflamación, cicatrices y rechazo a las pocas
semanas.
Un equipo internacional liderado desde la Escuela
Politécnica Federal de Lausana, en Suiza, ha creado un dispositivo flexible y elástico que se puede
implantar en la médula sin causar fricción ni daño
en los tejidos. Bautizado como E-Dura, o ‘duramadre electrónica’, esta prótesis ha sido probada con
éxito en ratones paralíticos. Tras un periodo de
entrenamiento, los roedores tratados han conseguido volver a caminar. Además, transcurridos dos
meses, no se ha detectado ningún rechazo.
El reto es, ahora, testarlo en pacientes humanos,
en los que el dispositivo podría funcionar hasta
casi 10 años. Flexible como un tejido vivo y con
una buena adaptación al sistema nervioso, E-Dura
tiene un potencial enorme, ya que además de traumatismos y trastornos neurológicos, también podría aplicarse a tratamientos de la epilepsia, la enfermedad de Parkinson y la terapia contra el dolor.
La mayor frecuencia de días de calor extremo,
provocada por el cambio climático, puede obligar
a restringir el peso de los aviones. A mayor temperatura del aire, se necesita mayor velocidad de despegue: el aire se torna menos denso y los aviones
deben alcanzar velocidades más altas para generar
la suficiente sustentación.
Según las previsiones, este fenómeno puede afectar a grandes aeropuertos de todo el mundo. Un
buen ejemplo es el de Phoenix (Estados Unidos),
donde se calcula que el número de días al año en
los que un Boeing 737 deberá perder 4,5 toneladas para poder despegar pasará de 0 a 20. Dicha
reducción de 4,5 toneladas equivale aproximadamente al 25% del peso en pasajeros y carga.
El problema se puede contrarrestar con pistas de
despegue más largas, pero es una solución costosa y en muchos casos inviable, pues muchos aeropuertos no disponen de espacio para crecer. La
alternativa es transportar menos pasajeros y carga
por vuelo. Pero, claro, eso probablemente significará subir los precios.
63
INNOVACIÓN
El coche que
llega
Está siempre conectado, el conductor es
opcional, sigue ganando interactividad... y
sigue teniendo cuatro ruedas
La alianza entre automoción y tecnología, más estrecha que nunca, ofrece nuevas pistas para vislumbrar los automóbiles del futuro. Una de las citas más esperadas, el Consumer Electronics Show,
celebrado recientemente en Las Vegas, ha presentado una nueva generación de vehículos con una
autonomía casi total y un equipamiento orientado
a conseguir una profunda interacción con los usuarios y el entorno.
Fabricantes de vehículos y empresas tecnológicas
coinciden en que la idea del momento es la mejora
de la movilidad y de la experiencia del viaje. Y que
la clave es la conectividad, no solo vía dispositivos
móviles sino también a través de nuevos wearables como los relojes inteligentes, con el objeto
de facilitar funciones de conducción, localización y
seguridad. En la cuestión de la autonomía, todos
sostienen que tecnológicamente ya es posible pero
que hay que avanzar gradualmente para disipar las
dudas y temores de los usuarios.
ENERGÍA
La carrera
fotovoltaica
se anima
Una nueva generación de cristal líquido
puede mejorar las células fotovoltaicas y,
por tanto, la competitividad de la energía
solar
En la carrera por desarrollar materiales más eficientes para fabricar células fotovoltaicas, un nuevo
tipo de cristal líquido de fase nemática puede estar
a punto de adelantar a sus competidores y convertirse en un componente de referencia. Descubierto
por investigadores de la Universidad de Melbourne
(Australia), se caracteriza por sus excelentes propiedades electrónicas, lo que puede estimular la fabricación de células que contribuyan a una disminución de los costes de producción de la energía solar.
El cristal líquido nemático es una solución orgánica
que aúna la eficiencia con la facilidad de impresión,
por lo que se sitúa claramente por encima de los
modelos basados en silicio, muy extendidos. La
flexibilidad del nuevo componente permite su encaje en casi cualquier superficie. Además, abre la
puerta a nuevos desarrollos innovadores en otros
segmentos, como las pantallas LCD.
BIOCIENCIAS
Tests en
plástico de
burbuja
El popular plástico de burbujas es una
alternativa muy barata a las microplacas
para realizar tests de laboratorio
Alta disponibilidad, coste bajo, peso mínimo, variedad de tamaños y superficie interior totalmente
estéril: estas son las principales características que
pueden convertir al popular plástico de burbujas
para embalar en una buena alternativa a las microplacas de laboratorio, los típicos utensilios con
múltiples pocillos que se utilizan como pequeños
tubos de ensayo.
TECNOLOGÍA
Los
ordenadores
flexibles, más
cerca
Los últimos desarrollos en transistores
orgánicos anticipan que en pocos años
podrían popularizarse los ordenadores
flexibles
Cada microplaca de laboratorio tiene un precio de
1 a 5 euros, así que al cabo del año pueden sumar
una partida considerable para los laboratorios, especialmente en épocas de recortes como la actual.
Partiendo de este hecho, investigadores del Wyss
Institute de la Universidad de Harvard iniciaron
hace un tiempo la búsqueda de opciones más eficientes. “Nos atrae la idea de usar materiales existentes, ir más allá de su función inicial y adaptarlos
para solventar problemas nuevos”, comenta George Whitesides, del Wyss Institute, quien añade que
el plástico de burbujas es especialmente idóneo
para tests visuales, como reacciones que cambian
el color de una muestra. ¿Cómo se introducen las
sustancias en la burbuja y se vuelve a cerrar la cavidad? Es tan fácil como usar una jeringa y esmalte
endurecedor para las uñas.
En unos diez años podrían llegar al mercado
pantallas de ordenador tan flexibles y delgadas como una hoja de papel, y mucho más
rápidas y eficientes que las pantallas corrientes actuales. Esta es la conclusión a la que
ha llegado el Instituto Japonés de Ciencias de
los Materiales tras analizar los últimos avances en el desarrollo de transistores de efecto
de campo orgánico, o OFET, una tecnología
descubierta hace algo más de una década.
Las principales propiedades de este tipo de
transistores son la capacidad de emitir y recibir luz y la amplificación de señales electrónicas débiles.
Los transistores orgánicos podrían abrir
otras fronteras para los dispositivos fotónicos y electrónicos, más allá de las pantallas.
Por ejemplo, en el desarrollo de la llamada
“memoria plástica” o en sistema optoelectrónicos de tecnología láser. La carrera está
abierta, y con una adecuada cooperación
interdisciplinar entre químicos orgánicos y
físicos de materiales pronto tendremos al
alcance el anhelado ordenador flexible.
ACTUALIDAD CIENTÍFICA
MEDICINA
E. coli contra
el Parkinson
La controvertida fama del E. coli puede
mejorar: al parecer, la célebre bacteria
intestinal permitiría tratar el Parkinson
Cuando oímos el término ‘E. coli’ solemos
pensar en intoxicaciones alimentarias y cierre de instalaciones públicas, pero la conocida bacteria intestinal tiene una cara más
amable y beneficiosa. Según una reciente
investigación de la Universidad de Michigan, el E. coli podría ayudar decisivamente a
tratar una de las principales enfermedades
neurodegenerativas, el Parkinson.
MATERIALES
Una
imitación
a tamaño
microscópico
FABRICACIÓN
El nailon se
reinventa en
verde
Combinando burbujas de ozono y rayos
ultravioleta, la fabricación del popular
tejido sintético estrena una etapa de mayor
respeto ambiental
Hasta ahora, el nailon se ha elaborado normalmente a partir de ácido adípico, un compuesto orgánico que se obtiene haciendo reaccionar moléculas de carbono con ácido nítrico corrosivo. Esta
preparación emite óxido nitroso, que puede resultar perjudicial para la capa de ozono. Si se cuantfica molécula por molécula, el óxido nitroso tiene
cerca de 300 veces más capacidad de calentamiento que el dióxido de carbono. La actividad humana produce anualmente más de ocho millones de
toneladas métricas de óxido nitroso, de las cuales
hasta el 8% procede de la fabricación de nailon.
La clave estriba en que una de las proteínas
contenidas en el E. coli inhibe la acumulación de fibras de amiloides, que es una de
las características fundamentales del Parkinson. Los amiloides son sustancias formadas
en el tejido cerebral por la agregación de
proteínas. En condiciones normales son beneficiosas a la función celular, pero cuando
se forman en el lugar o momento equivocado pueden dañar el tejido y causar la muerte
celular. A grandes rasgos, el E. coli hace que
el amiloide se forme en la pared exterior de
la célula, lo que no resulta tóxico.
El nácar inspira un nanocompuesto
artificial con propiedades excepcionales
que podría destinarse a múltiples usos
Un ámbito clave de la investigación actual
de materiales es desarrollar compuestos
que logren, o incluso sobrepasen, las características presentes en la naturaleza. En esta
línea, El DWI-Instituto de Materiales Interactivos de Leibniz (Alemania) ha conseguido
desarrollar un nanocompuesto inspirado en
el nácar que combina propiedades mecánicas excepcionales con una transparencia
cristalina y un alto efecto de barrera ignífuga y de gas.
Con el objetivo de desarrollar procesos con menor
huella ambiental, investigadores de la Universidad
Nacional Tsing Hua, en Taiwan, han conseguido
reemplazar el ácido nítrico con burbujas de ozono (O3) y luz ultravioleta. La luz ultravioleta rompe
el ozono en O2 y un átomo de oxígeno altamente
reactivo. A continuación, los átomos de oxígeno libres se adhieren a una molécula de carbono hexagonal, el ciclohexano, hasta que el anillo se abre y
forma ácido adípico. Al no utilizar ácido nítrico, se
evita la consiguiente emisión de gases de efecto
invernadero.
A una escala microscópica, la estructura del
compuesto parece una resistente pared de
ladrillo. Las plaquetas de carbonato cálcico
son como ladrillos que cargan y refuerzan,
mientras las capas alternas, de biopolímero
blando, actuando como un “mortero” que
absorbe y disipa la energía.
El resultado es un material ligero, firme y resistente, que podría destinarse a múltiples
usos, no solo como elemento estructural,
sino también en aplicaciones de almacenamiento de gas y de envasado de alimentos,
y en encapsulación de dispositivos orgánicos sensibles al oxígeno.
65
ES
STR
ILU
OS
FIC
NTÍ
CIE
Galileo Galilei: en busca
de la evidencia
Santiago Pérez Hoyos
Hace algo más de 450 años, el 15 de febrero de 1564, nacía en la ciudad de Pisa
Galileo Galilei, el que habría de ser precursor de la observación telescópica,
paladín del sistema copernicano y finalmente mártir de la injerencia religiosa
en el mundo de la evidencia científica. Nacido a caballo del Renacimiento y la
Edad Media, fue también en muchos sentidos símbolo de ambas épocas.
Contradictorio, por tanto, apasionado, orgulloso pero también pragmático hasta la negación de sus principios. Cobarde o cauto, y al mismo tiempo audaz en
su discurso. Siempre pendiente de la financiación necesaria para la independencia de sus estudios y a la búsqueda continua de la libertad para abordar
los temas que realmente le interesaban; pero al mismo tiempo consciente de
la necesidad de conectar la ciencia básica, la investigación pura, con la ciencia
aplicada y la tecnología que habría de conseguir el bienestar de sus conciudadanos y la satisfacción de sus benefactores. Más allá del apócrifo “Eppur si muove”
con el que tan a menudo se le simplifica, sigue siendo Galileo una figura de
referencia para los científicos, docentes e investigadores actuales. Más humano
quizá que los Newton o Einstein fue en todo caso un auténtico genio intuitivo,
cuya figura merece ser revisada continuamente, tanto por lo influyente como
por lo inspiradora.
El telescopio
Para todos los astrónomos y para aquellos que disfrutamos de la observación
del cielo nocturno, Galileo merecería haber pasado a la historia sólo por el uso
que dio a un invención reciente que cayó en sus manos. Hablamos desde luego
del telescopio, que no recibiría esa denominación hasta años más tarde por la
sugerencia del matemático griego Giovanni Demisiani.
Aunque la controversia persiste, posiblemente a finales del siglo XVI había en
Europa diversos artesanos que estaban modificando y combinando lentes con
el fin de producir imágenes ampliadas de objetos lejanos. Hans Lippershey en
Alemania, Zacharias Janssen en Holanda o Joan Roget en Cataluña podrían dis-
putarse el honor de haber sido los auténticos inventores del instrumento, pero
fue sin duda Galileo quien le aportó una dimensión revolucionaria cuando en el
año 1609 lo utilizó para escrutar los cielos.
“Galileo era consciente de la necesidad
de conectar la ciencia básica, la
investigación pura, con la ciencia
aplicada y la tecnología”
Podríamos decir que el papel de Galileo con respecto al nuevo aparato fue
triple. Por un lado, desde el punto de vista tecnológico, fue capaz de dotar al
instrumento de una capacidad ampliadora inédita y de una perfección óptica
indiscutible para la época. Esta innovación tecnológica fue durante décadas la
carta de presentación del científico, el regalo que utilizaba para agradar a los
poderosos cuya protección y apoyo económico precisaba. Esto incluye al obispo
Barberini, quien habría de convertirse en Urbano VIII y fuera artífice final de la
desgracia de nuestro astrónomo.
En segundo lugar, supo también Galileo hallar una utilidad militar aplicada al
telescopio. Un uso del agrado de sus benefactores de quienes obtendría admiración sí, pero también el apoyo económico que precisaba. Capaz gracias a sus
contactos de presentarse ante la república de Venecia como el inventor original
de un aparato que ya circulaba por las ciudades italianas, nadie puede negarle
el mérito de ser capaz de hallarle un uso práctico y convencer del mismo a las
autoridades.
CIENTÍFICOS ILUSTRES - Galileo Galilei: en busca de la evidencia
Finalmente, nadie excepto Galileo tuvo la genialidad de apuntar su vista a los
cielos con ese nuevo artilugio y supo interpretar y extraer las consecuencias
lógicas de sus observaciones. Gracias a ellas descubrió los cuatro grandes satélites de Júpiter, que ahora llamamos galileanos pero que él quiso bautizar como
mediceos, en busca, una vez más, de la protección de la dinastía Médicis en
Florencia, cuyo apoyo anhelaba. El movimiento orbital ponía de relieve la inconsistencia del modelo ptolemaico para explicar la constitución del Sistema Solar.
Esto, como recoge Thomas Khun en su famoso “Estructura de las Revoluciones
Científicas”, hacía trizas una astronomía cada vez más difícil de explicar y sostener ante la avalancha de nuevas observaciones y explicaciones de las mismas,
como por ejemplo las realizadas por Johannes Kepler, coetáneo de Galileo. Unido a esto a la constatación de las fases de Venus, se ponía en entredicho el
conocimiento sancionado por las autoridades eclesiásticas, lo que supondría al
cabo la condena de Galileo.
La imperfección de los objetos celestes supuso también un duro golpe filosófico
al mundo medieval. Empezando por la Luna, cuyos montes y mares implicaban
una constitución mucho más terrenal de lo que se pretendía. Y siguiendo por
el Sol, cuyas manchas sostuvo Galileo que eran un fenómeno superficial en el
astro, acertando una vez más.
Pero no pararon ahí las observaciones astronómicas de Galileo. Con un sencillo movimiento pudo terminar finalmente con la polémica acerca del origen
de la franja brillante en el cielo nocturno, la llamada Vía Láctea. Descubrió así
que ésta estaba formada por multitud de estrellas más pequeñas, imposibles
de discernir a simple vista. También las Pléyades o constelaciones como la de
Orión, contaban con muchas más estrellas, más débiles, de las que los clásicos
habían consignado. Barruntó acertadamente que con mayores telescopios sería
posible por tanto incrementar ad infinitum el número de astros en el cielo. Todas estas ideas quedaron convenientemente recogidas en su Sidereus Nuncius
(Gaceta Sideral) un año más tarde.
Si, orgulloso como era, Galileo hubiera podido conocer los límites de la ciencia
que acababa de inaugurar se habría sentido tremendamente satisfecho. Fue
realmente el padre de la astronomía observacional tal y como la entendemos
en la actualidad. Todos los astrónomos actuales tenemos una profunda deuda
con él. Habría sido posible devolverle ese favor mostrándole la verdadera naturaleza de Saturno, cuyos anillos y su cambiante aspecto le resultaron siempre
un misterio que lo intrigaba profundamente. Nuestro pequeño homenaje se
realizó cuatrocientos años más tarde, cuando en 2009 celebramos el Año Internacional de la Astronomía en honor a sus observaciones.
“El movimiento orbital ponía de relieve
la inconsistencia del modelo ptolemaico
para explicar la constitución del Sistema
Solar”
Retrato de Galileo Galilei realizado por Justus Sustermans en 1636 durante el arresto de Galileo. Esta es una imagen de importante carga simbólica que muestra el respeto
que aún se tenía por el científico condenado. Aunque ya en un estado físico deplorable,
Galileo preserva la intensidad e inteligencia de su mirada, magníficamente capturada por el
pintor de los Medici. Galeria degli Uffizzi. commons.wikimedia.org
estudio musical, como por su escepticismo. Galileo fue de hecho un consumado
tañedor de laúd hasta el final de sus días y las teorías musicales de su padre se
reflejaron múltiples veces en sus escritos, así como su estilo clásico en forma de
diálogos a la hora de exponer sus ideas.
La polémica
Hoy hace aproximadamente 400 años, allá por 1615, tenía lugar el primer proceso de la Iglesia Católica contra el científico. Una vez más, resulta complicado
encontrar una sola causa para esta inquina. Desde luego, la primera y fundamental era el inmovilismo de una iglesia acantonada en la Contrarreforma tras
el cisma luterano, que la condujo a unas posiciones de intransigencia históricas.
Pero existen también otras causas, como el carácter expansivo y polemista del
propio Galileo que nunca desaprovechó la ocasión de humillar con su brillante
retórica a todos aquellos que le disputaban la primacía en las observaciones o
su interpretación. También podemos destacar el ocaso de las ciudades estado
italianas, arrastradas por el lastre que supuso precisamente el despótico ejercicio de la autoridad por parte de Roma y la progresiva pérdida de influencia de
la liberal Venecia, que habría podido ser un puerto seguro y refugio permanente para un ambicioso Galileo quien prefirió la incierta protección de la familia
Médicis en Florencia cuando comenzó a destacar en el mundo científico de la
época.
Resulta irónico que Galileo estuviera a punto de convertirse en monje en el convento de Vallombrosa de Florencia. Según cuenta Reston en su biografía del
genio italiano, fue su padre Vincenzo quien, disgustado ante el cariz que estaba
tomando la educación de su hijo, decidió llevárselo mediante argucias y darle
una educación acorde a su capacidad intelectual. La figura de Vincenzo fue básica para Galileo, tanto por el carácter analítico de su padre, aunque orientado al
Realmente, la cantidad de evidencias que Galileo venía acumulando contra el
sistema ptolemaico hacía muy difícil seguir sosteniéndolo. El pisano se mostraba tan cauto frente a la iglesia oficial como avasallador contra sus mensajeros
individuales, personificados en Ludovico delle Colombe o el jesuita Christoph
Scheiner. Estos fueron alimentando un poso de envidia y odio hacia el científico que a lo largo de décadas iría madurando para terminar con la condena
Qué investigador actual no admirará la capacidad de Galileo para innovar tecnológicamente, encontrar usos prácticos para vender su invento y aún hacer
ciencia con él. Conviene recordar la admiración del pisano por los artesanos y su
trabajo manual, del cual siempre estuvo pendiente y supo rodearse de los más
hábiles para inspirarse en su trabajo y tratar de encontrar soluciones prácticas a
los problemas que les acechaban. Consciente de ello, Bertolt Brecht personalizó
al artesano, pulidor de lentes, en el personaje de Federzoni en su monumental
“Vida de Galileo”.
67
jantes presentes mientras que en público condenan las teorías del científico. La
salud de Galileo empieza a resentirse y en plena vejez, aquejado de problemas
oculares y enormes dolores por la artritis, aumentados por su hipocondría, se
encuentra de pronto inmerso en un proceso en el que la amenaza de la muerte
y la tortura es patente.
Las difíciles relaciones de Galileo con los jesuitas, en aquel momento en la cúspide de su poder político en la ciudad de Roma, ayudan a germinar las semillas
que se plantaron dos décadas antes. En su “Diálogo sobre los principales sistemas del mundo”, Galileo se atreve a ir más lejos que nunca e incluso busca
explicaciones teológicas para sus posiciones científicas, en un intento sincero
de compaginar su fe, auténtica por lo que sabemos, con lo que la evidencia empírica demuestra. Este fue probablemente su mayor error. En los diálogos, los
personajes Salviati y Sagredo abruman al pobre Simplicio con evidencias y argumentos irrefutables acerca del sistema copernicano. Intrigantes profesionales
hacen creer a Urbano VIII que el personaje de Simplicio se inspira en él mismo,
lo que dispara su paranoia hasta la crueldad hacia su hasta entonces amigo. De
nada sirve la sanción de los censores eclesiásticos a la publicación, ni la introducción y epílogo que las propias autoridades redactan para abrir y cerrar el
tratado. El peso de los argumentos y las evidencias es tan impresionante, que
convierten esas modificaciones en una auténtica burla para cualquier persona
inteligente. Y eso no pasa desapercibido a ojos de los jesuitas.
Entre los muchos inventos de Galileo podría destacarse el compás militar, inventado alrededor de 1597 y popularizado con la publicación de su manual en 1606. Este aparentemente
sencillo aparato permitía realizar con facilidad complicadas operaciones aritméticas como
calcular raíces cuadradas y cúbicas, entre otras. Studies in the History and Method of Science,
vol II, Clarendon Press 1921, Charles Singer.
expresa por parte de quien Galileo menos habría esperado. Muchas evidencias
históricas nos muestran a Galileo incapaz en ocasiones de percibir el riesgo y la
reprobación, a pesar de que los hechos, vistos con nuestra perspectiva, resultaban claramente alarmantes.
La primera refriega se cerró en 1616 con una amonestación verbal y escrita
por parte del cardenal Bellarmino, el mismo que condenó a Giordano Bruno al
fuego de los herejes en 1600. Parece realmente que Galileo despertaba mucha
admiración y respeto entre las autoridades eclesiásticas, quienes, en muchos
casos, apoyaban activamente las tesis de Galileo y lo defendían. El propio Maffeo Barberini habría de escribir su adulador poema Laudatio Perniciosa en honor del astrónomo. Así pues, Bellarmino indicó finalmente a Galileo que la tesis
copernicana no debía enseñarse y tenía que ser tratada desde un punto de vista
puramente hipotético. Los términos no fueron realmente claros y nuestro héroe
prefirió sentirse apoyado por las autoridades que reflexionar severamente sobre los condicionantes que se le venían imponiendo.
“El cardenal Bellarmino indicó
finalmente a Galileo que la tesis
copernicana no debía enseñarse y tenía
que ser tratada desde un punto de vista
puramente hipotético”
Una serie de señales externas, como el apoyo recibido por múltiples estudiosos
de los países protestantes, habrían de inducir a Galileo hacia posiciones más audaces. Las señales parecían óptimas: Barberini, amante de las ciencias, se había
convertido en Urbano VIII. Pero Barberini no fue el papa que uno podía esperar
del obispo que fue. Autoritario, cruel, inseguro hasta la paranoia y con una fe en
la astrología que le llevaba a tomar decisiones de enorme calado político bajo
los auspicios más peregrinos, Galileo fue siempre incapaz de ver en Urbano VIII
más allá de su antiguo amigo Barberini.
El inicio del proceso inquisitorial a comienzos de la década de 1630 era imparable. Fue acogido con escepticismo inicialmente por Galileo. Acaba de construir
el microscopio y sigue agasajando a los príncipes de la Iglesia con sus mejores
telescopios, quienes hipócritamente reciben en privado y disfrutan de seme-
“Busca explicaciones teológicas para
sus posiciones científicas, en un intento
sincero de compaginar su fe con lo que la
evidencia empírica demuestra”
Galileo es procesado y amenazado con la tortura física. Era Galileo una persona
de carácter fuertemente hedonista, muy inclinado hacia los placeres carnales y
con gran miedo al sufrimiento físico y la enfermedad. Se debate al principio entre mantenerse fiel a sus principios o renegar de ellos públicamente para poder
mantener su vida y continuar estudiando el mundo que le rodea. No tarda en
optar por la segunda opción y se desdice en 1633 ante la incredulidad de algunos de sus admiradores como Giuseppe Baretti, quien añadió el apócrifo “Eppur
si muove” que casi con completa seguridad no fue pronunciado públicamente
por Galileo. La figura más preclara e inteligente de comienzos del siglo XVII acababa de ser humillada por la Iglesia Católica en un ejercicio de despotismo que
no sería reparado hasta mediados del siglo XX, cuando el proceso a Galileo fue
revisado por orden del papa Juan Pablo II. Para muchos científicos, ni siquiera
esto fue suficiente reparación del tremendo daño contra la razón y el conocimiento que supuso la condena.
La siguiente década ve a un Galileo derrotado, en un claro declive físico. Pero
aún es una mente brillante y, a espaldas de la Iglesia oficial, incluso a veces
protegido por algunos obispos y nobles cristianos, va explorando tierras más
seguras de la ciencia hasta formular su “Discursos sobre dos nuevas ciencias”
poco antes de su muerte. Estos serían en buena medida los hombros de los
gigantes sobre los que Newton diría haberse subido años más tarde. Galileo
fallece en 1642 a los 77 años de edad visto a los ojos tanto de los católicos como
de los protestantes como un mártir de la razón frente al oscurantismo religioso.
El científico experimental
Con todo lo expuesto anteriormente resulta fácil perder la perspectiva sobre la
figura de Galileo. Más allá de astrónomo y mártir de la ciencia, él fue matemático en primer lugar y después un gran científico experimental, para el que la
prueba de los sentidos resultaba la comprobación definitiva, más allá de lo que
los dogmas establecidos enseñaran.
Antes de su descubrimiento de los cielos a través del anteojo astronómico, Galileo destacó por su habilidad en las matemáticas. A pesar de que su padre habría
querido hacer de él un médico de bien, la inclinación de Galileo le condujo a
las aparentemente poco prácticas matemáticas. Sin embargo, su genio quedó
CIENTÍFICOS ILUSTRES - Galileo Galilei: en busca de la evidencia
Diversos dibujos de Galileo mostrando la Luna con sus accidentes orográficos, las manchas solares o las estrellas que escaparon de la aguda vista de los astrónomos anteriores.
Imágenes tomadas de Sidereus Nuncius y de las cartas de Galilelo Galilei. Wikimedia Commons
patente ya en los primeros años de estudiante, cuando inventa un artilugio para
medir el pulso de los pacientes empleando un péndulo. Este invento le permite
encontrar algo de comodidad y, una vez más, le da el margen suficiente para
poder dedicarse a las matemáticas de lleno, llegando a ocupar la cátedra de la
universidad de Pisa, no sin antes haber terminado un tratado sobre el cálculo de
los centros de gravedad de los sólidos.
“Galileo afirma que el libro de la
naturaleza está escrito en el lenguaje de
las matemáticas, sin las cuales es como
girar vanamente en un laberinto”
De aquellos tiempos es también la anécdota relacionada con la caída libre de
los cuerpos, supuestamente realizada desde la torre de Pisa. Lo cierto es que
Galileo sostuvo acertadamente que la aceleración de los cuerpos en caída es
universal en ausencia de otras fuerzas. De hecho, al final de sus días, continuó
estudiando el movimiento de los cuerpos dando lugar a la ley del movimiento,
actualmente conocida como primera ley de Newton.
Dentro de ese triángulo científico que forman en Galileo las matemáticas, la física y la ciencia experimental supo ver una profunda relación. En una de sus citas
más recordadas, afirma que el libro de la naturaleza está escrito en el lenguaje
de las matemáticas, sin las cuales “es como girar vanamente en un laberinto”.
Lo cierto es que Galileo proporcionaba a la geometría el lugar superior dentro
de las matemáticas, en lugar del cálculo que usamos comúnmente en el mundo
científico actual. Este mensaje de Galileo, que la ciencia debe estar apoyada en
la experiencia y expresada en la matemática, es perfectamente universal y válida en los tiempos que corren.
Hemos visto que el genial Galileo es por tanto una buena fuente de inspiración
para los científicos del siglo XXI. Más allá de por sus descubrimientos, merece
ser recordado por la insistencia con la que buscó la aplicación práctica, sin amar
menos por ello los fundamentos teóricos del universo que con tanta dedicación estudiaba. Consciente por tanto de la sociedad que le rodeaba y de sus
dificultades, no percibía como un menosprecio relacionarse con artesanos y
trabajadores manuales, ni una rebaja buscar la financiación y seguridad que los
poderosos podían darle. Galileo comenzó una avalancha de pensamiento crítico
y de libertad de razonamiento que continuo por el Renacimiento y la Ilustración
para llegara a la auténtica revolución científica que se desencadenó en el siglo
XX y de la cual aún estamos recogiendo sus frutos.
Bibliografía
Noticiero Sideral, Galileo Galilei. Traducción del latín a partir de la edición de 1610. MUNCYT, Madrid, 2010.
Diálogo sobre los dos máximos sistemas del mundo ptolemaico y copernicano, Galileo Galilei. Alianza editorial, Madrid, 1995.
Diálogos acerca de dos nuevas ciencias, Galileo Galilei. Editorial Losada, Buenos Aires, 2004.
La vida de Galileo, Bertolt Brecht. Ediciones Losange. Buenos Aires, 1956
Galileo. El genio y el hombre, James Reston Jr. Ediciones B, Madrid, 1999.
La estructura de las revoluciones científicas, Thomas Khun. Editorial Fondo de Cultura Económica de España, Madrid, 2006.
69
La física de Galileo
Galileo ha sido llamado en ocasiones “el primer físico”. ¿Por qué? Esencialmente porque el pisano confió
siempre en sus sentido antes que en las argumentaciones, especialmente si éstas no eran suyas y debían
aceptarse como dogmas. Su capacidad de observación, unida a una mentalidad profundamente analítica y, posiblemente, a su personalidad orgullosa e
iconoclasta, le permitió plantar cara a la ciencia de
Aristóteles, que permanecía como la referencia fundamental para los académicos de la época.
Para Aristóteles, era la naturaleza de las cosas la propiedad fundamental que gobernaba su movimiento.
Galileo no ve esa conexión y refiere en sus escritos
ejemplos de cuerpos de naturaleza (o composición)
distinta pero que se ven sometidas a las mismas
leyes. Esta ruptura se manifiesta tanto en la ley de
la inercia, como en las diversas aplicaciones del empuje de Arquímedes que le enfrentaron a científicos
de la época. Sin embargo, es la metodología de la
observación la que proporciona a Galileo el golpe
definitivo a todas las teorías anteriores.
Pongamos por caso el análisis de la caída de los
cuerpos. Galileo sostuvo que la velocidad de caída
de objetos que parten del reposo no depende de
la masa o forma de los mismos, sino que depende
exclusivamente del tiempo transcurrido desde el
comienzo de la caída. La tradición popular sostiene
que, para confrontar su teoría con la realidad, Galileo arrojó diferentes objetos desde la torre de Pisa.
Esta historia es probablemente una fábula basada
En el experimento apócrifo de la Torre de Pisa, se arrojan dos objetos: uno pesado (azul) y otro ligero (rojo). Aristóen las experiencias de Simon Stevin, un experimenteles habría predicho una velocidad constante y dependiente de su masa (líneas rectas azul y roja), mientras que la
tador anterior, pero recoge bien la forma de trabateoría de Galileo mostraría una dependencia con el cuadrado del tiempo e igual para ambos objetos, al menos en
jar de Galileo. Sin embargo, en uno de sus ensayos
ausencia de otras fuerzas.
sobre el movimiento sostuvo la siguiente paradoja
acerca del movimiento aristotélico. ¿Qué ocurriría,
se preguntaba, si uniéramos dos cuerpos de distinta masa con una cuerda? ¿Caerían a la velocidad del más pesado? ¿O más rápido? ¿No frenaría el
objeto más ligero al más pesado por su menor velocidad? Aplicando un sentido común apabullante, Galileo era capaz de poner de manifiesto las
debilidades lógicas del planteamiento clásico, llegando a la conclusión de que, en el vacío, y en ausencia de otras fuerzas, la lana y el plomo caerían
exactamente a la misma velocidad.
Dejando a un lado el experimento de la torre de Pisa, lo que sí hizo Galileo fue experimentar sobre un plano inclinado y tomar cuidadosas medidas
sobre el movimiento de objetos que deslizaban sobre él. Comienza midiendo el tiempo cantando canciones de pulso conocido y pronto desarrolla
un reloj de agua más preciso que le permita determinar el paso del tiempo. Con todo ello, encuentra que la distancia recorrida es proporcional al
cuadrado del tiempo. Esta idea, al igual que su ley de la inercia, la concibe como universal y es capaz de vislumbrar la presencia de fuerzas desconocidas tales como rozamientos entre superficies sólidas, viscosidad para el movimiento en fluidos, etcétera, que pueden apartar las observaciones
de los resultados esperados cuando no son tenidas en cuenta.
Este tipo de estudios puramente académicos tienen en Galileo una continuación natural en el mundo práctico de las aplicaciones militares. Para
el estudio del tiro parabólico, decide descomponer el movimiento en dos componentes individuales. Mientras que la componente horizontal del
movimiento se sujeta a su ley de la inercia, la componente vertical es la caída libre de un cuerpo. Con esa idea aparentemente sencilla, mejora
notablemente las tablas militares de la época.
Enfocando el Universo de manera mecanicista, Galileo habilitó la experimentación para la filosofía natural, permitiendo la creación, no sólo de la
física, sino de todas las demás ciencias experimentales. De esta manera, en lugar de un filósofo alejado de la realidad, el físico se convierte en un
científico con las manos puestas sobre las naturaleza, tal y como lo seguimos viendo hoy en día.
www.cicnetwork.es