ANÁLISIS GESTUAL DE LOS ROSTROS HUMANOS PROSOPAGNOSIA Grado en Biología Trabajo Fin de Grado Proyecto Sinergia Departamento de Fisiología Facultad de Biología Junio 2015 Mª Paz Gómez de Tejada Bernal Índice Introducción ...............................................................................................................................2 1.- Mecanismos que subyacen a la génesis de la gestualidad ....................................................3 1.1.- Bases del control de la musculatura facial .............................................................4 2.- Mecanismos que subyacen a la interpretación de la gestualidad ..........................................6 2.1.- Procesamiento de las caras: bases neurológicas y evaluación …...........................6 2.2.- Patrones de expresión en diferentes grupos animales …........................................7 2.2.1.- Factores neurales que subyacen a la adjudicación identitaria ….............9 2.3.- Circuitos neurales implicados en el reconocimiento facial …..............................12 3.- Reconocimiento facial y emociones ….............................................................................. 14 3.1.- Naturaleza de las emociones …............................................................................14 3.2.- Amígdala. Centro de las emociones ….................................................................15 4.- Definición y alcance de las patologías que afectan a los mecanismos de reconocimiento facial ….....................................................................................................................................17 4.1.- Lesiones en la corteza de asociación del lóbulo temporal. Déficit de reconocimiento. Agnosias ….........................................................................................18 4.2.- Otras alteraciones patológicas …..........................................................................19 5.- Prosopagnosia ….................................................................................................................20 5.1.- Prosopagnosia congénita …..................................................................................22 5.2.- Prosopagnosia adquirida …..................................................................................23 6.- Conclusiones y perspectivas …...........................................................................................24 Anexo I ….................................................................................................................................25 Bibliografía …...........................................................................................................................26 Introducción La emoción es el interés expectante con que se participa en algo que está ocurriendo en el entorno. Ese efecto se construye con un conjunto de cambios fisiológicos que se producen en un individuo a partir de esos estímulos ambientales o internos. Desde un punto de vista psicológico, las emociones modifican la atención, hacen subir de rango ciertas conductas y activan redes asociativas relevantes en la memoria (Carlson, 2006; Purves, 2008). Esa repuesta fisiológica emocional abarca diferentes niveles del control neuroendocrino y se refleja, entre otros fenómenos, en la contracción involuntaria de los músculos de la cara; así, incluso antes de la aparición del lenguaje, las muecas evolucionaron como vía de comunicación (Carlson, 2006; Purves, 2008). Ante cambios ambientales, los grupos podían así reaccionar de forma coordinada. La expresividad facial se convirtió en el eje central de la construcción de los grupos de animales sociales. De este modo, en el caso concreto de los primates, cualquier cambio en la situación del grupo podía ser comunicada al resto, mediante una expresión facial característica, que ha derivado en un complejo repertorio de modificaciones del rostro (Figura 1) (Carlson, 2006; Purves, 2008). Figura 1: Ejemplos de las seis expresiones faciales usadas por Parr, L. A. (1998) Modificado. Experimento de emparejamiento de caras. De izquierda a derecha, de arriba abajo: (A) Expresión neutral, (B) labio relajado, (C) vocalizaciones llamadas“pant-hoot”, (D) cara de juego (boca abierta y relajada), (E) cara de grito y (F) muestra de dientes. (Cortesía de Living Links Center, Emory University.) Obviamente, aunque en primera instancia la gestualidad descrita pudiese parecer irrelevante para la supervivencia del individuo, si se observa la situación a nivel grupal, el hecho de que sea posible comunicar de manera casi inmediata e instintiva la presencia de una amenaza potencial o un recurso necesario se vuelve claramente ventajoso. Figura 2: Esquema de los músculos de la cara (A) y cuero cabelludo (B) (Drake y cols., 2010 Modificado) Un individuo sin grupo ve mermada su capacidad de supervivencia y los grupos precisan comunicación entre sus miembros, es decir la capacidad de reflejar en el rostro los sentimientos, así como la habilidad de reconocer esas facciones y relacionarlas con lo que ocurre alrededor (Carlson, 2006; Purves, 2008). Se delimitan así dos problemas de gestión de los patrones conductuales; por un lado la génesis de las expresiones faciales de cada individuo y paralelamente cómo dicho individuo reconoce las generadas por otro. 1.- Mecanismos que subyacen a la génesis de la gestualidad. El repertorio de expresiones faciales que un individuo es capaz de generar constituye su marco gestual, siendo una de las bases de la comunicación no verbal intra e interespecífica. Entre humanos, de hecho, dicha gestualidad se ha convertido en el recurso clave para la correcta interacción no verbal y para enfatizar la información verbal, definiendo gran parte de las acciones recíprocas a través del intercambio de miradas entre rostros (Carlson, 2006; Purves, 2008). 1.1.- Bases del control de la musculatura facial En el rostro humano se encuentran numerosos músculos (Figura 2), pero no todos ellos se relacionan de forma directa con la génesis de la expresión de las emociones en la cara. Así, los músculos encargados de la expresión facial se hallan en el cuero cabelludo, en la zona de la cara y el cuello. Situados en el tejido subcutáneo de la parte anterior y posterior del rostro, se encargan de desplazar la piel para modificar las expresiones faciales, manifestando de este modo los estados de ánimo. El control de esta musculatura se sitúa en la zona ponto-bulbar del encéfalo a nivel de los núcleos motores del facial y del trigémino, que se encargan de la producción de las expresiones de la cara (Drake y cols., 2010). Dado que la expresividad depende de la contracción específica de conjuntos concretos de músculos, parece evidente que la valoración de la actividad de dicha musculatura puede permitir predecir un gesto dado. En este sentido, el clásico diseño de numeración de Ekman y Friesen (1976) permitía definir con precisión, y de manera objetiva, las contracciones de los músculos durante un proceso expresivo (Anexo 1). Gracias a este sistema, es posible el estudio de la expresión facial de las emociones de una manera empírica y evitando, en gran medida, la subjetividad de la observación. Se definieron así las seis emociones básicas. Esas emociones clásicas son las actualmente consideradas, no sin controversia, emociones innatas, basándose en la teoría Darwiniana (1872) que mantiene que las emociones tal y como las conocemos son seleccionables por el ambiente. Según esta teoría, todas las emociones son universales e innatas, lo que explicaría que diversas culturas hayan desarrollado expresiones parecidas, como se demostró en los años 70. Miembros de colonias aisladas, e incluso probablemente no contactadas, eran capaces de reconocer expresiones faciales producidas por un occidental. Las expresiones faciales constituirían patrones de conducta no aprendidas, al menos en su definición más básica de afecto, peligro o violencia (Ekman y cols., 1972). Esta teoría evolucionista ha sido debatida ampliamente. Existen trabajos que no se oponían a la idea de la universalidad de las expresiones, aunque pusieron de manifiesto algunas objeciones. Por ejemplo, existirían expresiones con carácter claramente cultural, como sacar la lengua como forma de sorpresa en China o los saludos de respeto o apretones de manos japoneses y occidentales, o el número de besos intercambiados en los distintos países europeos (Klineberg, 1940; Bruner y Tagiori, 1954). En este sentido, se ha demostrado, mediante pruebas de identificación de expresiones emocionales, que se captarían más detalles en las caras de etnias próximas que en individuos de diferentes grupos étnicos; así, incluso utilizándose modelos no humanos en 3D, los individuos podían reconocer con mayor facilidad las expresiones con caras que mostrasen sus rasgos propios. Sin embargo, este hecho no influye en el reconocimiento de la intensidad de la expresión. Esto llevó a concluir que la expresión y el reconocimiento de las emociones estaría determinada, o al menos, modulada, por la cultura (Jack y cols., 2012; Sauter y Eisner, 2013; Zhu y cols., 2013). No obstante, una de las controversias más recientes sobre los experimentos prouniversales provendría de la obligación de clasificar las emociones en categorías previamente definidas por una palabra. Existen estudios que intentaron demostrar la subjetividad de este tipo de pruebas, recogiendo resultados que harían pensar que, si bien la teoría de la universalidad no quedaba refutada, tampoco debía ser aceptada tan rápidamente sin la existencia de experimentos que carecieran de restricciones lingüísticas (Gendron y cols., 2014). Por último, se ha puesto en duda no sólo la universalidad de las emociones, sino también la capacidad de reconocimiento de dichas emociones, tanto en relación al contexto en cada cultura, como en la respuesta neurocognitiva hacia distintas características de la expresión emocional multisensorial, que podría estar relacionada con los patrones previos de identificación de rostros (también relacionados con características étnicas) (Masuda y cols., 2012; Ito y cols., 2013; Liu y cols., 2015). No obstante, el hecho es que en menor o mayor medida, los grupos humanos, por diferentes que sean, son capaces de determinados mínimos de comunicación común no verbal que sí parecería universal; por ello, la teoría universal de las emociones sigue actualmente vigente, habiendo estudios que intentan dar explicación a todos los debates abiertos. Parece ser que cada expresión tendría un significado universal, pero que podría ser usada en distintos momentos o con diferente significado global, dependiendo del acompañamiento de señales con las manos, de movimientos del cuerpo o de sonidos (Elliot y Jacobs, 2013). Incluso aunque haya rasgos comunes mínimos, lo cierto es que las emociones clásicas no se producen de manera aislada o independiente, sino que pueden existir mezclas o evolucionar entre ellas. De hecho, no existe una región cerebral encargada específicamente del reconocimiento de cada emoción, sino que se produce la activación de distintos circuitos cerebrales, comunes o específicos para la identificación de cada emoción. En la tabla 1 se detallan las áreas cerebrales activadas en el reconocimiento del estado neutro frente a las diversas combinaciones de modificaciones emocionales (Jehna y cols., 2011). Neutro Enfado Enfado Circunvolución frontal superior Miedo Asco Circunvolución frontal superior Circunvolución frontal medial Circunvolución frontal medial izquierda Circunvolución cingulada posterior Corteza cingulada anterior Corteza occipital lateral NO SIGNIFICATIVO Circunvolución temporal medial Miedo Asco NO NO SIGNIFICATIVO Polo occipital Corteza orbital frontal Polo occipital Corteza occipital lateral Corteza insular frontal Polo frontal Corteza medial frontal Corteza occipital lateral Polo occipital Circunvolución fusiforme occipital lateral SIGNIFICATIVO Corteza frontal orbital/insular Tabla 1: Áreas cerebrales activadas al reconocer las diversas modificaciones emocionales (Jehna y cols., 2011). 2.- Mecanismos que subyacen a la interpretación de la gestualidad. Toda esta enorme inversión en control gestual se justifica en que la integridad y estabilidad de los grupos de animales sociales precisa de un consenso interpretativo de los diferentes gestos producidos por los distintos individuos. Es por ello que el correcto procesamiento e identificación de las intenciones y de las expresiones emocionales del resto de los individuos del grupo sea crucial para la supervivencia del mismo (Carlson, 2006; Purves, 2008). 2-1.- Procesamiento de caras: bases neurológicas y evaluación Los animales evalúan continuamente el entorno a través de su campo visual y esto incluye las caras de sus congéneres. En este contexto, por ejemplo, un cerebro humano normal evalúa cualquier rostro nuevo por sus proporciones diferenciadoras de ojos, nariz y boca y busca una correspondencia entre todas las caras familiares almacenadas en la memoria a largo plazo cuyo objetivo final es la identificación del sujeto (Carlson, 2006; Purves, 2008). El reconocimiento de la identidad de un individuo simplemente por el estímulo facial podría ser considerado como algo relativamente sencillo y, sin embargo, resulta abrumador el elevadísimo número de identidades que se puede almacenar en el cerebro. Es necesario por tanto, un mecanismo que permita guardar toda esa información y, lo más importante, que tenga la capacidad de acceder a ella de manera inmediata. En el ser humano, este mecanismo de reconocimiento de la identidad de un rostro se realiza siguiendo una serie de etapas, definidas en términos de Psicolingüística (Lopera, 2000). Así, se acepta que el primer evento que se produce es la construcción del percepto facial (Lopera, 2000), para lo que se realiza un análisis en paralelo de cuatro características faciales: • La apariencia facial, también denominada patrón facial, que es el reconocimiento del estímulo visual dentro de la categoría de las caras. • La distinción de las características particulares del rostro en cuestión y su distribución espacial, que permite determinar diferentes grados de parecido entre rostros diferentes. • Las expresiones faciales, que representan el análisis conjunto de características faciales permitiendo determinar la emoción del interlocutor expresada en el rostro. • Por último, el lenguaje facial que incluye los movimientos oro-linguo-labiales. Producido el percepto facial del rostro, se generará la comparación con las huellas de memoria de caras previamente conocidas y almacenadas. Esto es extremadamente importante, pues permite identificar a los miembros del propio grupo. Si existiera alguna concordancia, se produciría una sensación de familiaridad con el rostro, y se activaría el acceso a su reconocimiento. Este acceso se produce gracias a las unidades de reconocimiento facial, que serían una suerte de almacén de las huellas de memoria de caras previamente conocidas y que establecen una conexión entre el percepto facial y la memoria semántica, que es un tipo de memoria declarativa de la que depende nuestro conocimiento general sobre el mundo y el lenguaje (Lopera, 2000). Así, la activación de la memoria semántica relativa a las personas se produciría previa activación de un cierto nodo de identidad personal, que a su vez, puede ser activado por distintas rutas sensoriales (percepto facial, percepto auditivo de la voz o el percepto gráfico o auditivo del nombre). De este modo, la memoria semántica incluye la información biográfica de la persona de igual forma que el nodo de información visual o auditiva contendría sus huellas (Lopera, 2000). Una vez se ha activado la memoria semántica, se produce la activación de la memoria léxica, es decir, se selecciona el nombre correspondiente. A la memoria léxica se puede acceder desde la representación consciente del rostro o desde cualquiera de las representaciones semánticas del nodo de identidad personal (Lopera, 2000). El individuo entonces ha reconocido al sujeto y le ha otorgado toda la información previa que poseía sobre él. 2.2.- Patrones de expresión en diferentes grupos animales Aunque la descripción de las fases de reconocimiento del individuo y la adjudicación de información (en gran medida verbal) sea típicamente humana, la adjudicación de estados emocionales a otros individuos y el reconocimiento de los miembros de los grupos aparece en en todos los animales sociales. Históricamente, ya Darwin en “La expresión de las emociones en los animales y en el hombre” (1872) aborda la manera en que humanos y otros animales (principalmente pájaros y mamíferos) expresan sus emociones. Darwin describió tres principios básicos de la expresión de las emociones: • El primero es el denominado “Principio del hábito útil”, y está basado en su idea de la heredabilidad y de la evolución de las expresiones de las emociones. Determinó que dichas expresiones debían ser funcionalmente adaptativas, o al menos, tuvieron que serlo en algún momento de la evolución. • El segundo principio o “Principio de antítesis” defiende que dos expresiones que reflejen emociones contrarias deben ser morfológicamente opuestas. Un claro ejemplo es el de dominancia y sumisión en animales (Figura 3). • El último principio es el “Principio de la acción directa de la activación Sistema Nervioso”; según el cual, algunas expresiones, serían consecuencia de la necesidad del sistema nervioso de descargar un cierto supuesto “exceso de excitación”. Figura 3: A la izquierda pauta típica de sumisión en el lobo (Canis lupus). A la derecha, pauta de dominancia. Modificado de Gil, 1991 Aunque se pude considerar bastante general la existencia de patrones de reconocimiento intragrupales en el Reino Animal, los primates son un grupo excepcional en este sentido. Así, los monos rhesus (Macaca mulatta) tienen la capacidad de identificación individual mostrando una clara preferencia por la observación de una cara desconocida frente a otra conocida, lo que implicaría que reconocen la cara familiar y esto les motiva a explorar la desconocida. Además, la vista del rhesus se centra en la zona de los ojos durante el proceso de reconocimiento de la identidad. Sin embargo, frente a una expresión emocional, los monos no se centran únicamente en los ojos, sino que prestan mayor atención a las características distintivas de esa emoción (boca abierta, dientes fuera. etc.) (Gothard y col. 2004). En el caso de los chimpancés (Pan troglodytes), su capacidad para reconocer la identidad de otro chimpancé (atendiendo únicamente a la visualización del rostro) se exploró mediante un método de comparación-relación, con el cual los monos debían relacionar una foto de un chimpancé con otra, dentro de las opciones dadas. Tras varias pruebas de distinta complejidad, se determinó que existía una clara preferencia por relacionar, correctamente, la foto de un individuo dado con otra foto que contuviese el rostro del mismo chimpancé (Parr y cols. 2000; Dahl y cols., 2013). 2.2.1. Factores neurales que subyacen a la adjudicación identitaria La identidad, reconocida según sus rasgos faciales, y la capacidad de determinar las emociones (usando únicamente los estímulos físicos provenientes del rostro de las personas) han sido estudiadas por diversos especialistas, habiendo incluso dos modelos funcionales diferentes (aunque probablemente complementarios) que explicarían el proceso (Bruce y Young, 1986; Haxby y cols., 2000). En uno de estos modelos se propone que a nivel central el reconocimiento de la identidad a través de estímulos faciales estaría separado de la detección de emociones en las expresiones de las caras. Según este modelo, existen rutas paralelas para reconocer la identidad facial, la expresión facial y movimientos oro-linguo-faciales (muy importantes en el reconocimiento del estímulo auditivo). Se postuló así que los estímulos visuales se procesaban separadamente. Esta idea se apoya en diversos estudios en psicología cognitiva, neuropsicología, diagnóstico por la imagen y registros neurofisiológicos en primates no humanos (Bruce y Young, 1986; Riedel y cols., 2015). En el modelo alternativo del sistema neural humano para el reconocimiento de caras se identifica qué estructuras neurales están implicadas en reconocer cada una de las dos informaciones distintas recogidas del estimulo facial. Según este modelo, el estimulo visual de un rostro es analizado por dos sistemas, el sistema central, donde se produce el análisis visual, y el sistema extendido, donde se hace un análisis más exhaustivo (Haxby y cols., 2000). En el sistema central (Figura 4), la cara es reconocida en la circunvolución occipital inferior, que enviaría la información a otras estructuras encargadas de reconocer distintos aspectos estructurales de los rostros. Por un lado, se encuentra el surco temporal superior, donde se analizan los aspectos modificables de las caras (emoción y otra información noverbal así como dirección de la atención). Por otro lado, la circunvolución fusiforme lateral analiza los aspectos invariables de las caras. (Haxby y cols., 2000). Paralelamente, en el sistema extendido (Figura 5) se encuentran distintas regiones, encargadas cada una de un aspecto específico. Dentro de los aspectos modificables, el surco intraparietal analiza la dirección espacial de la atención, la corteza auditiva analiza la información oro-linguo-facial, y las emociones son procesadas por la amígdala, la ínsula y el resto del sistema límbico. Del análisis íntegro de los aspectos invariables, más concretamente, la identidad de la misma, el nombre o biografía del individuo, se encargaría el lóbulo temporal anterior (Haxby y cols., 2000). Figura 4: Sistema central de reconocimiento facial Figura 5: Sistema extendido de reconocimiento según el modelo propuesto por Haxby y cols. (2000). facial según el modelo propuesto por Haxby y cols. Modificado. Circunvolución occipital inferior (rojo) (2000). Modificado. Surco intraperietal (rojo). Surco temporal superior (verde) y Circunvolución Corteza auditiva (verde). Sistema límbico (azul). fusiforme lateral (azul) Lóbulo temporal anterior (amarillo) Recientemente se ha observado que la circunvolución occipital inferior y circunvolución fusiforme lateral se encuentran muy interconectadas entre sí y con los lóbulos temporales anteriores ventrales mediante dos tractos, cuya lesión en humanos se correlaciona con ciertos defectos en el reconocimiento facial. Sin embargo, no se han encontrado conexiones directas entre el surco temporal superior y las áreas de identificación facial de la zona ventral. No obstante, parece que el surco temporal superior interactuaría con dichas regiones ventrales de manera indirecta. Esta información apoyaría el modelo de dos vías independientes para los distintos aspectos del rostro ya que el surco temporal superior está más relacionado con el reconocimiento de las expresiones y la dirección de la mirada mientras que las áreas ventrales serían claves para el reconocimiento facial (Grossi y cols. 2012; Pyles y cols. 2013; Tavor y cols., 2013, O'Neil y cols., 2014). Los dos modelos ponen de manifiesto que, en algún punto del circuito, se produciría una bifurcación de la información, y ambos sugieren que dicha bifurcación se produciría inmediatamente después de la entrada del estímulo. Sería necesario, pues, un sistema que pueda extraer y separar las diferentes señales faciales. Además, este modelo está apoyado por la existencia de personas con incapacidad de reconocer una de las dos señales, pero completamente capacitadas para reconocer la contraria (Duchaine y cols., 2003). El reconocimiento de un rostro con una expresión neutra produce, en el ser humano, la activación tanto del surco temporal superior como de la circunvolución occipital inferior y de la circunvolución lateral fusiforme (Haxby y cols., 2000). Mediante estudios de imagen (Figura 6) por resonancia magnética funcional se observó que las correlaciones neurales del reconocimiento de las caras incluían además de la activación de la circunvolución fusiforme occipital temporal, la de la corteza cerebral occipital lateral, la circunvolución frontal inferior, el cerebelo, Figura 6: Resultados del experimento de Jehna y colaboradores (2011). Modificado. Se muestran las activaciones producidas por las caras neutras en relación a imágenes de casas (azul) o a imágenes pixeladas de caras (rojo) el lóbulo parietal superior, las cortezas intracalcarina, e insular y la amígdala (Jehna y cols., 2011). Otros modelos de estudio con monos rhesus han demostrado la existencia de neuronas concretas cuyas respuestas correlacionan con la identificación y reconocimiento de los estímulos específicos. Estas neuronas se encuentran en la corteza temporal, y su comportamiento es compatible con el reconocimiento de estímulos complejos, que está asociado a la corteza temporal humana. Un ejemplo es la respuesta de algunas neuronas de la circunvolución temporal inferior de la corteza del mono rhesus, que son muy selectivas, activándose únicamente con la visión frontal de un rostro de otro mono (Carlson, 2006; Purves, 2008). De hecho, se ha observado que los chimpancés reconocen con mayor facilidad a un mono por su rostro si éste se presenta frontalmente que si lo observan de perfil (Parr y cols., 2011). Si bien la especificidad de estas neuronas es muy alta, no llegan a activarse únicamente frente a un rostro específico. Se cree, sin embargo, que cada neurona se dispara con una característica del rostro, y que la activación en conjunto de distintas neuronas son las que permitirían reconocerlo e identificarlo. Existen estudios que han sugerido que las neuronas de la corteza temporal estarían organizadas igual que en la corteza visual primaria, esto es, en disposición columnar. La localización de la actividad en las capas superiores de la corteza se va desplazando sistemáticamente a medida que se van modificando las características de los objetos, en el caso de la identidad y el reconocimiento facial, la orientación de la cara. Es por ello que se piensa que la identificación de objetos, o específicamente de rostros, se produciría más por análisis de las señales graduadas que de las eferencias específicas de una única célula (Carlson, 2006; Purves, 2008). 2.3.- Circuitos neurales implicados en el reconocimiento facial Identificar al sujeto no basta, sino que la gestión de la expresividad emocional precisa de la adecuada generación de modificaciones del rostro coherentes con la situación de contexto. Está demostrado que el ser humano tiende a expresar las emociones en la cara con más intensidad cuando se encuentra en un entorno social, incluso desde una edad muy temprana, a partir de los 10 meses. El cerebro, por tanto, maneja tanto información sobre el control de la gestualidad como de la interpretación de la misma (Kraut y Johnston, 1979; Jones y cols., 1991). Se piensa que el reconocimiento emocional de estímulos visuales y auditivos se produce mayoritariamente en el hemisferio derecho del cerebro, mientras que el reconocimiento de las palabras se produciría en el izquierdo. Por ejemplo, pacientes con daños en el hemisferio derecho serían capaces de relacionar ciertas frases o situaciones propuestas con emociones, sin embargo, no podrían saber qué emoción hay tras una expresión facial (Blonder y cols., 1991; Abbot y cols., 2013). Los estudios realizados en chimpancés mostraron, usando el sentido de la circulación sanguínea cerebral como método indirecto de medición de la actividad cerebral, que se produce una activación asimétrica de los hemisferios cerebrales ante la captación de un estímulo visual emotivo. Al proyectar vídeos con escenas positivas o negativas, se detectó un aumento de la temperatura en el tímpano derecho, lo que sugiere un aumento en la actividad cerebral en el hemisferio homolateral (Parr y Hopkins, 2000). También, mediante estudios con tomografías por emisión de positrones se observó que los lóbulos frontales aumentaban su actividad al captar la emoción a partir de la descripción del contexto donde se generaba la misma, con una mayor activación del izquierdo que del derecho. Sin embargo, cuando la emoción se captaba a través del tono de voz, se producía un aumento de la actividad en la corteza prefrontal derecha. Estos datos coinciden con los obtenidos en estudios con pacientes con daño cerebral en los que aquellos con lesiones unilaterales de la región temporo-parietal, mostrarían una menor precisión en el análisis de emociones expresadas con la voz, que los individuos sanos (sobre todo en el caso de la tristeza) (Heilman y cols., 1975; George y cols., 1996; Rymarczyk y Grabowska, 2007). Aparentemente, la perturbación más severa se produce debido a un daño cerebral por lesión de la corteza somatosensorial del hemisferio derecho, sugiriendo esto que cuando se ve la expresión facial de una emoción, se generarían representaciones somatosensoriales de la misma, sabiendo así cómo se siente la persona observada. Por ello, los pacientes con daños en áreas somatosensoriales mostrarían también dificultades para el reconocimiento de las expresiones emocionales en el rostro, más específicamente el miedo (Adolphs y cols; 2000; Rymarczyk y Grabowska, 2007). En el reconocimiento emocional de la expresiones en otros primates se ha estudiado, como ocurría con las identidades, la capacidad para discriminar caras según su expresión emocional, sometiendo a los individuos a pruebas de relación. Tras cinco días de pruebas, los chimpancés lograban distinguir cuatro de las cinco expresiones con facilidad. En este sentido, los chimpancés serían capaces de discriminar caras neutras de caras expresivas pero cuando dos expresiones son muy parecidas, al individuo le cuesta más discriminarlas y, por lo tanto, cuantas más diferencias morfológicas existen entre dos expresiones, mejor distinción hará, en la linea del principio de antítesis. Se ha demostrado, además, que cuando se muestra una expresión emocional a un chimpancé, se produce la activación a nivel central de regiones cerebrales muy similares a las encargadas de detectar y analizar dichas expresiones en el cerebro humano (Bauer y cols., 1983; Parr y cols., 1998; Barks y cols., 2013). En definitiva, en el rostro se produce la mayor expresión emocional y además, el cerebro humano está programado para reconocerlas jerárquicamente. De hecho, si se muestra a un ser humano imágenes con expresiones neutras y expresiones de tristeza, ambas realizadas por otro ser humano y, además, plasmadas en un robot humanoide, el cerebro humano será capaz de discriminar entre la cara humana y un objeto con características similares a las de un rostro. Sin embargo, el estímulo emocional de tristeza producido por el robot humanoide será reconocido por el cerebro antes que el estímulo neutro, lo que implica la activación de las áreas encargadas de otorgar etiquetas emocionales que pueden ser muy importantes para determinar un patrón de conducta dado ante un sujeto desconocido. Esta disminución del tiempo de reacción se observa también cuando se muestran las expresiones realizadas por seres humanos, obviamente (Chammat y cols., 2010). Por último, estados afectivos concretos parecen distribuirse con cierta especificidad por diferentes regiones del sistema nervioso. Así, en humanos, a nivel central, se producen cambios en las señales de la ínsula y el globo pálido cuando se reconoce el asco. Mientras que respecto al miedo se ha determinado que su reconocimiento está asociado con la activación de la corteza orbitofrontal y la amígdala (Murphy y cols., 2003). 3.- Reconocimiento facial y emociones El estudio del reconocimiento facial, por tanto, debe tener en cuenta dos procesos: la identificación del individuo y la adjudicación de los estados emocionales de los otros sujetos. Establecido que una emoción se define como una alteración del ánimo intensa y pasajera, agradable o penosa que va acompañada de cierta conmoción somática, el rostro, que soporta una identidad dada, tiene, además, que reflejar esa alteración (Carlson, 2006; Purves, 2008). 3.1.- Naturaleza de las emociones Una respuesta emocional está constituida por tres componentes controlados por sistemas neurales independientes: • El componente conductual determinado por el conjunto de movimientos musculares apropiados a la situación que lo provoca. • El componente neurovegetativo asociado al correlato autonómico de cualquier respuesta emocional que facilite las conductas y aporte una movilización rápida de energía para realizar movimientos vigorosos. • El componente hormonal constituido por la liberación de hormonas encargadas de reforzar las respuestas neurovegetativas. Son numerosas las substancias implicadas pero dentro del eje hipotálamo-hipofisiario-adrenal, destacan específicamente la liberación, por la médula suprarrenal de adrenalina y noradrenalina, así como de hormonas esteroides por parte de la corteza suprarrenal (Carlson, 2006; Purves, 2008). No obstante, la etiqueta emocional sobre un acontecimiento a nivel central se organiza a través, fundamentalmente, de la amígdala, que tiene un papel destacado en las integración de las reacciones fisiológicas y comportamentales ante objetos y situaciones que tienen una relevancia biológica especial, tales como los que indican dolor, cosas desagradables o peligrosas, alimento, agua o parejas potenciales. Cuando se presentan estímulos emocionalmente relevantes, se activa el núcleo accumbens, componente del circuito de recompensa, que a su vez tiene aferencias hacia la amígdala. Esta estrecha relación de la amígdala con el circuito de recompensa implica un elevado contenido emocional a la hora de tomar decisiones (Carlson, 2006; Purves, 2008). Tradicionalmente a todo este circuito encargado de la gestión emocional se le denomina el sistema límbico. En él, el estimulo llegaría al tálamo, desde donde se envía información, por un lado a la corteza sensorial y por otro, al hipotálamo, donde se produce la respuesta corporal. Posteriormente, la información llega a la corteza cingulada, directamente desde la corteza sensorial, e indirectamente por medio del tálamo anterior, desde el hipotálamo. Es desde la corteza cingulada desde donde se produciría la experiencia emocional, más comúnmente denominada “sensación”, que está compuesta de percepciones, pensamientos y recuerdos (Carlson, 2006; Purves, 2008). El caso concreto del reconocimiento de rostros y la adjudicación de componentes afectivos a los mismos, así como la respuesta emocional que la identificación genera, se gestiona como un patrón complejo de conductas que implica a todo el cerebro emocional (Carlson, 2006; Purves, 2008). 3.2.- Amígdala. Centro de la emociones. La amígdala, o complejo amigdalino, se encuentra en los lóbulos temporales. Está compuesta por varios grupos de núcleos, cada uno con diferentes patrones de aferencias y eferencias, y con funciones diversas (Figura 7). El núcleo medial recibe aferencias sensoriales (olores y feromonas) y envía eferencias hacia el prosencéfalo basal medial y al hipotálamo. El núcleo lateral recibe información sensorial desde la corteza sensorial primaria, la corteza de asociación visual, el tálamo y la formación hipocampal, y produce eferencias al estriado ventral (relacionado con los efectos de estímulos reforzadores sobre el aprendizaje) y al núcleo dorso-medial del tálamo, que a su vez proyecta a la corteza prefrontal. El núcleo lateral también envía información a los núcleos basales y al basal accesorio, ambos de la propia Figura 7: Esquemas de las vías de transmisión de la información en la amígdala amígdala. El núcleo central recibe aferencias del núcleo lateral, de los núcleos basales y del basal accesorio. Envía información a regiones del hipotálamo, mesencéfalo, protuberancia y bulbo (todas encargadas de los diferentes componentes de la respuesta emocional y, en el caso concreto de la identificación de sujetos, la adjudicación de una etiqueta emocional) (Carlson, 2006; Purves, 2008). Se sabe por numerosos datos previos que la amígdala desempeña una función importante en el reconocimiento de las emociones. De hecho, existen estudios que demuestran que en algunos casos de daño en la amígdala (debido a intervenciones quirúrgicas en pacientes con epilepsia, o a algún tipo de traumatismo), los pacientes ven disminuida su capacidad de reconocimiento de las expresiones faciales (Young y cols., 1995; Adolphs y cols., 1999; Morris y cols., 1996; Whalen y cols., 1998; Mende-Siedlecki y cols., 2013). Aunque daños en la amígdala puedan ocasionar dificultades en el reconocimiento de expresiones faciales de emoción, varios estudios han demostrado que dicha dificultad para reconocer las emociones no se daría si el estímulo fuese vocal en vez de facial , lo que llevaría a pensar que la amígdala es responsable, no del reconocimiento emocional en general, sino del reconocimiento de la expresión facial de las emociones (Adolphs y Tranel, 1999; Meletti y cols., 2014). Teniendo en cuenta esto, es obvio que todo el constructo debe recibir información visual para desarrollar su función. Sin embargo, esta información no vendría desde la corteza visual de asociación. Esta área cerebral, encargada parcialmente del reconocimiento identitario del rostro, no sería el origen de la información que recibe la amígdala, ya que existen pacientes con daños puntuales en dicha área que han desarrollado prosopagnosia (ceguera hacia las caras) y, sin embargo, son capaces de reconocer sin problema las expresiones faciales (de Gelder y cols., 1999; Duchaine y cols., 2003; Rivolta, 2014). De hecho, mediante un estudio de neuroimagen funcional con un paciente de estas características se descubrió que cuando se le mostraban rostros con expresiones de temor, se activaban el colículo superior, el tálamo posterior y la amígdala, incluso aunque el paciente no era consciente del estímulo. Uno de los modelos propuestos sería que la amígdala recibiera aferencias visuales desde el tálamo, a través de dos fuentes. Una de las fuentes sería subcortical, en principio la más importante, desde el colículo superior y el tálamo pulvinar; la otra sería la ruta cortical desde la neocorteza visual (Morris y cols., 2001; Adolphs, 2002). Teniendo en cuenta la cantidad de áreas implicadas en el reconocimiento de la identidad y de las expresiones en un rostro, es fácil imaginarse la gran variedad de patologías derivadas de la lesión o degeneración de dichas áreas. 4.- Definición y alcance de las patologías que afectan a los mecanismos de reconocimiento facial. Existen diferentes cuadros patológicos asociados a una gestión anómala de los mecanismos de reconocimiento facial. Algunos están centrados en la disfunción visual, y otros en el marco de adjudicación de significación al estímulo visual (Carlson, 2006; Purves, 2008) El proceso se iniciaría como una respuesta a un estímulo visual. Las neuronas de la corteza visual responden selectivamente a las características específicas del entorno. El ojo recoge de un rostro, por tanto, una gran variedad de información, por lo que sería sencillo deducir que existen distintos tratamientos y vías para los diferentes tipos de información. De estas vías, la que mayor información lleva es la vía visual primaria, desde la retina hasta el núcleo geniculado dorsolateral en el tálamo, y hasta la corteza visual primaria. El procesamiento en paralelo de las distintas informaciones recogidas continúa en las vías corticales, que se extienden más allá de la corteza visual primaria, aportando distintas áreas visuales en los lóbulos occipital, parietal y temporal. El reconocimiento del rostro en la categoría de las caras se produce en el lóbulo temporal mientras que el análisis del movimiento se realiza en el lóbulo parietal. Toda la información se integraría en la corteza visual de asociación (Purves, 2008; Kumfor y cols., 2015). Aparte de la vía visual primaria, existen otras dianas específicas de los axones de las células ganglionares del ojo (Figura 8), como la región pretectal o el núcleo supraquiasmático y el colículo superior (Carlson, 2006; Purves 2008). Figura 8: Estructuras implicadas en el transporte de la información visual. Modificado de Purves (2008) La vía visual primaria puede verse afectada a nivel del sistema nervioso central o a nivel de la retina. Estas afectaciones producirían de manera directa un efecto negativo en regiones particulares del campo visual. Sabiendo que en las estructuras visuales centrales se mantienen las relaciones espaciales de las retinas, se pueden analizar los campos visuales para indicar el sitio de daño neurológico en zonas de integración o de análisis de la información visual. Se denominan anopsias a los defectos grandes en el campo visual, mientras que si son más pequeños, se conocen como estocomas (Carlson, 2006; Purves 2008). 4.1.- Lesiones en la corteza de asociación del lóbulo temporal. Déficit de reconocimiento. Agnosias Reconocer e identificar quiénes somos y qué sentimos requiere un patrón de conducta más allá de los estímulos visuales que, obviamente, son necesarios pero no suficientes. Se denomina déficit de reconocimiento a la afección por la cual se deja de distinguir de las demás a una persona o cosa por sus rasgos o características. Se ha demostrado mediante pruebas clínicas que una de las funciones de la corteza de asociación del lóbulo temporal es el reconocimiento y la identificación de los estímulos, principalmente los estímulos complejos. Es por ello que los problemas para reconocer, identificar o denominar objetos pueden deberse a daño en esta zona del encéfalo. Estas deficiencias, denominadas agnosias, se diferencian de las llamadas negligencias en que en estas últimas se niega el conocimiento de la información, mientras que en las agnosias el estímulo es percibido, pero no reconocido o identificado (Carlson, 2006; Purves 2008). Las agnosias que involucran objetos son casos específicos dentro de los distintos déficits funcionales, caracterizados por la incapacidad de reconocer un estímulo complejo como familiar y, posteriormente, identificar y nombrar dicho estímulo. Según el tamaño y localización de la lesión en la corteza lateral, las agnosias pueden ser tan generales, como la incapacidad de reconocer la mayoría de los objetos familiares, o tan específicas como las relacionadas con los rostros humanos. Se han descrito dos tipos de agnosias, la agnosia visual asociativa y la agnosia visual aperceptiva. En la primera, los pacientes perciben los objetos y los describen morfológicamente, sin embargo no son capaces de reconocerlos y aunque sepan la definición de la palabra no son capaces de formar una imagen mental del objeto (Carlson, 2006; Purves, 2008). Agnosia visual asociativa Se perciben los objetos Agnosia visual aperceptiva No se perciben los objetos Los describen morfológicamente No pueden reconocerlos No pueden describirlos No pueden reconocerlos Tabla 2: Diferencias entre agnosia visual aperceptiva y asociativa Por otro lado, en la agnosia visual aperceptiva, los pacientes no pueden percibir visualmente los objetos. Al no poder percibirlos, no son capaces de reconocerlos en su conjunto (Purves, 2008). Sin embargo, podrían reconocer los detalles y así llegar a deducir lo que es. Un síntoma común es la prosopagnosia, que es la incapacidad de reconocer los rostros humanos concretos. Los pacientes son capaces de reconocer los ojos, la boca o la nariz, pero no saben la identidad de la persona (Lopera, 2000). Por otro lado, dentro del complejo espectro autista, en algunos de estos individuos no se activa el área fusiforme de las caras al ver rostros, dando lugar a una deficiencia en el desarrollo de las interacciones sociales con los demás, siendo, en los casos más graves, incapaces de reconocer la existencia de otras personas (Carlson, 2006; Purves, 2008). 4.2.- Otras alteraciones patológicas Existen además otros trastornos en el reconocimiento de rostros. Un ejemplo es la anomia para los nombres propios (prosopanomia), que es considerada un trastorno lingüístico o afasia. En estos pacientes, el fallo se produce tras la creación del percepto, la activación del sentimiento de familiaridad y tras la evocación de las memorias semánticas de los nodos de identidad personal. Se conserva la información biográfica del individuo observado, pero el paciente es incapaz de acceder al nombre (Lopera, 2000; Busigny y cols., 2015). Otra alteración patológica es la denominada “falso reconocimiento”. Los pacientes con este trastorno no son capaces de determinar si un rostro es o no familiar. El falso reconocimiento de caras, sin prosopagnosia, se observa después de un daño prefrontal derecho. Se produciría, por tanto, una atribución de familiaridad a un estimulo facial sin la activación de la representación mnésica subyacente (Rapcsak y cols., 1996; Lopera, 2000) La metamorfopsia es otro de los múltiples trastornos en la identificación del rostro, pero sin embargo, los pacientes con esta afección no tienen dañada la maquinaria de reconocimiento, sino la percepción del rostro. Las personas con este trastorno perciben los estímulos faciales distorsionados, lo que les impediría discriminar correctamente las características particulares de un rostro por daños en el lóbulo temporal izquierdo (Lopera, 2000; Nagaishi y cols., 2015). También se han descrito alteraciones de hipoemocionalidad visual. Se trata de pacientes con prosopagnosia que pierden el placer estético visual. Las áreas visuales se encontrarían desconectadas de los lóbulos temporales y del sistema límbico, por lo que se produciría una activación incompleta de las representaciones afectivas de los nodos de identidad emocional (Lopera, 2000). Por último, se han descrito desórdenes neuropsiquiátricos (como esquizofrenia, Huntington o trastornos obsesivos) relacionados con algún tipo de déficit de reconocimiento de las expresiones faciales de las emociones. Parece ser que aunque las expresiones emocionales son muy diversas, se ha determinado que las emociones con más problemas a la hora del reconocimiento son las consideradas negativas (miedo, asco y enfado) dentro de las seis básicas (Jehna y cols., 2011). En este sentido se ha visto que en algunos pacientes la esquizofrenia puede ir acompañada de una disminución de la respuesta neural hacia las expresiones negativas (Jehna y cols., 2011). De igual forma, también se ha encontrado déficit de reconocimiento facial del miedo tras un daño bilateral en la amígdala. Un fallo de conexión entre el ganglio basal y el estriado como el producido en la corea de Huntington (Sprengelmeyer y cols 1996), o en el trastorno obsesivo-compulsivo (Sprengelmeyer, 1997) da lugar a una deficiencia en el reconocimiento del asco. Los resultados de los estudios de neuroimagen funcional corroboran dichos hallazgos (Sprengelmeyer y cols., 1998; Phillips y cols., 1998). 5.- Prosopagnosia Pocas afecciones son tan intrigantes como la prosopagnosia en humanos. La prosopagnosia (del griego ΠΡΟΣΩΠΟ, que significa “rostro”) es la incapacidad para reconocer y/o identificar rostros. Siendo una de las agnosias mejor estudiadas, fue reconocida por los neurólogos a finales del siglo XIX. Sin embargo, no sería una única entidad, sino una familia de desórdenes con diferentes lesiones cerebrales que producirían distintos déficits funcionales (Davies-Thompson y cols., 2014) Los pacientes con este daño son incapaces de identificar a las personas por sus características faciales, incluso aquellas más cercanas, como familiares o amigos. En algunos casos más extremos los pacientes no son capaces ni siquiera de reconocer en absoluto un rostro como humano frente a otro estímulo visual (Lopera, 2000). Aunque no son capaces de adjudicar una identidad a un rostro presentado, algunos pacientes con prosopagnosia tienen conservada la capacidad de reconocer expresiones emocionales. Esto apoyaría que ambos procesos fuesen independientes. Además, la prosopagnosia se ha asociado con agnosia al color, alteraciones de la imaginación visual e hipoemocionalidad visual (Schmidt, 2015). Aunque diferentes patologías puedan afectar a los mecanismos neurales que subyacen al reconocimiento facial (el Alzheimer, la corea de Huntington o la enfermedad de Párkinson provocan déficits en este aspecto conductual), el término “prosopagnosia” se utiliza únicamente en pacientes con un déficit selectivo de reconocimiento facial que no puede ser explicado por problemas de percepción, cognición o memoria (Davies-Thompson, 2014). Respecto a su origen, dado que diversos estudios por imagen realizados en individuos normales han determinado que es fundamentalmente en la corteza temporal inferior donde se produce el reconocimiento de los rostros, ésta es el área donde se han centrado inicialmente los estudios para determinar el problema específico de los pacientes con prosopagnosia. Asimismo, cuando se produce una estimulación directa en los lóbulos temporales (como los realizados previamente a una extirpación de un foco epiléptico), el paciente puede desarrollar una prosopagnosia transitoria, probablemente producida por la activación anormal de las regiones implicadas en el reconocimiento Figura 9: Relación de daños cerebrales y las distintas patologías facial. También se ha descubierto que regiones cercanas entre producidas. Davies-Thompson y cols., 2014 Modificado. sí pueden tener funciones de reconocimiento categóricamente diferentes. Así, el daño en regiones posteriores de la corteza inferior occipito-temporal puede dar dificultades en la codificación perceptual temprana, así como en la codificación de las estructuras estáticas, resultando en una prosopagnosia aperceptiva. Por su parte, el daño en la corteza inferior temporal anterior produce dificultades para recuperar la memoria facial, produciendo una prosopagnosia asociativa. Por último, lesiones en el polo temporal anterior pueden llevar a problemas con la información biográfica, produciendo amnesia específica de la persona (Figura 9) (Davies-Thompson y cols., 2014). De manera general, el reconocimiento facial viene determinado por el efecto “la parte por el todo”, por el cual una persona es capaz de reconocer mejor una característica facial específica (como los ojos o la boca) si ésta se encuentra formando parte de un rostro completo que si la observa aisladamente. Los pacientes con prosopagnosia muestran este efecto para características como la boca o la nariz. Sin embargo, obtienen el mismo grado de reconocimiento al observar los ojos en un todo o de manera aislada, sugiriendo que un fallo en el procesamiento de los ojos podría ser un factor importante en la prosopagnosia (Ramon y Rossion, 2010; DeGutis y cols., 2012). 5.1.- Prosopagnosia congénita Se denomina prosopagnosia congénita al desorden por el cual los pacientes son incapaces, desde su nacimiento, de reconocer la identidad de una persona cuando el estímulo es un rostro. Se caracteriza por no presentar daño cerebral aparente. Se desarrollaría tras un fallo en el desarrollo cerebral. Gracias a pruebas con neuroimagen se ha observado que una menor activación en los lóbulos temporales anteriores ventrales puede derivar en un déficit de reconocimiento facial, incluso aunque existiera una correcta activación de las otras áreas cerebrales relacionadas con la clasificación identitaria. Otra explicación parece ser la pérdida de materia gris en varias regiones conocidas por responder selectivamente a las caras, más concretamente en la circunvolución fusiforme y la circunvolución temporal inferior (Garrido y cols., 2009; Collins y Olson, 2014). Diversos estudios habrían determinado que este tipo de prosopagnosia podría tener un origen genético, teniendo una heredabilidad compatible con un gen dominante autosómico (Kennerknecht y cols., 2006; Kennerknecht y cols., 2007). Dada la variedad sintomática y genética, es obvio que la prosopagnosia congénita es un desorden muy heterogéneo. Algunos pacientes tendrían problemas con la memoria de la identidad facial, pero podrían agrupar caras iguales sin ningún problema y otros no son capaces de realizar ninguna de las tareas. Existen datos de pacientes con problemas para el reconocimiento de un rostro entre otros objetos, y pacientes con limitaciones de reconocimiento de las características no identitarias de la cara, como las expresiones, el sexo o el atractivo (Garrido y cols., 2008; Susilo y Duchaine, 2013). En pacientes con este tipo de prosopagnosia (Figura 10) se ha encontrado una capacidad reducida en la discriminación entre caras u objetos, así como una disminución en la actividad tanto en el sistema central (área fusiforme de la cara) como en el sistema extendido (corteza temporal anterior) (Rivolta y cols., 2014). Se han explorado diferentes estrategias terapéuticas para mejorar la calidad de vida de los pacientes con este tipo de patología. Los tratamientos compensatorios se han aplicado con éxito en niños, aunque en adultos no produce resultados tan favorables (Brunsdon y cols., 2006). Mediante este tipo de tratamiento se intenta enseñar a los pacientes cómo evitar los déficits de reconocimiento facial mediante procesamiento semántico, estrategias verbales, etc. Por otro lado, los tratamientos correctivos, como clasificar caras basándose en las distancias entre los rasgos faciales de manera diaria, producen una mejora temporal en el reconocimiento facial en individuos con prosopagnosia congénita, tanto en la edad adulta como en la infancia (DeGutis y cols., 2014). No obstante, esta diversidad en las manifestaciones de la prosopagnosia cognitiva hace que el estudio de posibles terapias sea muy complicado, por lo que se ha llegado a sugerir la necesidad de elaborar una taxonomía de la prosopagnosia (Susilo y Duchaine, 2013). Figura 10: Imágenes por resonancia magnética funcional (Rivolta y cols., 2014). Modificado. Comparativa de las activaciones cerebrales al visualizar rostros frente a objetos en individuos con prosopagnosia congénita (derecha) e individuos control (izquierda) 5.2.- Prosopagnosia adquirida Se denomina prosopagnosia adquirida a la pérdida de la habilidad para reconocer rostros derivada de un daño cerebral. Afecta al reconocimiento de caras familiares y de nuevos rostros. Sin embargo, existe una forma de prosopagnosia adquirida anterógrada, muy rara, por la cual el déficit se limita a caras encontradas desde la lesión (Young y cols., 1995; Davies-Thompson y cols., 2014). Dependiendo de la localización y la extensión de la lesión, este tipo de prosopagnosia puede producir distintas sintomatologías. Existen pacientes que son incapaces no sólo de determinar la identidad tras un rostro, sino que también desarrollarían dificultades para realizar distinciones sutiles entre objetos (por ejemplo, tipos de coches o especies de aves) (Davies-Thompson y cols., 2014). Esto reforzaría la idea de algunos autores de que la prosopagnosia adquirida sería consecuencia de algún tipo de deterioro de una cierta red experta en determinar diferencias sutiles entre ejemplares distintos de una misma categoría, donde la caras serían únicamente un ejemplo de un daño mayor (Tarr y Gauthier, 2000). No obstante, existen numerosos estudios donde se describen pacientes con ceguera para los rostros como consecuencia de una lesión en el área fusiforme de las caras, que sin embargo son capaces de reconocer de manera general distintos tipos de objetos, como coches o animales (Kanwisher, 2000). Paralelamente, se ha demostrado la existencia de deficiencias en el procesamiento de la información de la región de los ojos en algunos pacientes con prosopagnosia adquirida (Caldara y cols., 2005). Otros estudios sugieren que los pacientes no podrían juzgar las distancias relativas entre la características faciales (Barton y cols., 2002). Sin embargo, recientemente se ha publicado una hipótesis que afirma que estas dos observaciones estarían relacionadas entre sí y que la prosopagnosia adquirida se desarrollaría debido a un fallo en el procesamiento holístico (habilidad de percibir elementos múltiples de una cara como una representación global) (Ramon y Rossion, 2010). Esta diversidad de sintomatologías supone, como en el caso de la prosopagnosia congénita, una dificultad añadida a la hora de probar distintos tratamientos. En el caso de los pacientes con prosopagnosia adquirida, se ha observado que con tratamientos compensatorios y correctivos se produce un leve aumento del reconocimiento de las caras con las que se han realizado los ensayos. Sin embargo, cuando se mostraban caras nuevas, no se observaba ninguna mejoría (Powell y cols., 2008; DeGutis y cols., 2013). 6.- Conclusiones y perspectivas. • El reconocimiento facial integra un conjunto de patrones de conductas y estrategias adaptativas esenciales en los grupos sociales de animales. • Establecer un proceso de reconocimiento implica mecanismos de adjudicación de identidad y de características emocionales ajustadas a las características del contexto. • El reconocimiento facial está mediado por un mecanismo complejo que incluye distintas y diversas áreas cerebrales (circunvolución fusiforme lateral, circunvolución occipital frontal y surco temporal superior) cuyos daños o lesiones pueden producir déficits de todo tipo. • Los déficits de reconocimiento facial incluidos dentro del término “prosopagnosia” se caracterizan por un impedimento a la hora de la identificación de una persona mediante un estímulo facial, definiéndose distintos tipos según dónde se observe la alteración (captación del estímulo o análisis del mismo) o por su etiología (congénita o adquirida) • Debido a la heterogeneidad en la sintomatología, sería necesario realizar un mayor número de estudios relacionados con esta patología para determinar cuáles son las estrategias más favorables para la evolución positiva de cada paciente así como desarrollar herramientas individualizadas para su compresión y abordaje. Anexo I Sorpresa Alegría UA Movimiento Músculo de expresión UA Movimiento Músculo de expresión 1 Elevar la ceja (interior) Occipitofrontal vertiente frontal 6 Elevar la mejillas Orbicular de los párpados 2 Elevar la ceja (exterior) Occipitofrontal vertiente occipital 12 Elevar las comisuras del labio Cigomático mayor 5 Elevar párpado superior Elevador de párpado 26 Caída de la mandíbula Mesetero. Relajación Pterigoideos 27 Apertura de boca Pterigoideos Tabla 6: Unidades de acción (UA) y músculos implicados en la expresión de alegría Tabla 3: Unidades de acción (UA) y músculos implicados en la expresión de sorpresa Asco Miedo UA Movimiento Músculo de expresión UA Movimiento Músculo de expresión Elevar la ceja (interior) Occipitofrontal vertiente frontal 1 Elevar la ceja (interior) Occipitofrontal vertiente frontal 1 2 Elevar la ceja (exterior) Occipitofrontal vertiente occipital 9 Arrugar la nariz Elevador del ala nasal 4 Fruncir el ceño Corrugador 10 Elevar el labio superior Elevador del labio superior Depresión esquinas labio Depresor del ángulo de la boca 5 Elevar párpado superior Elevador de párpado 15 20 Estiramiento de labios Risorio 16 Depresión labio inferior Depresor del labio inferior 25 Apertura de labios Depresor del labio inferior 17 Elevar la barbilla Mentoniano Apertura de labios Depresor del labio inferior Caída de la mandíbula Mesetero. Relajación Pterigoideos 26 Caída de la mandíbula Mesetero. Relajación Pterigoideos 25 27 Apertura de boca Pterigoideos 26 Tabla 7: Unidades de acción (UA) y músculos implicados en la expresión del asco Tabla 4: Unidades de acción (UA) y músculos implicados en la expresión el miedo Enfado Tristeza UA Movimiento Músculo de expresión UA Movimiento Músculo de expresión Fruncir el ceño Corrugador 1 Elevar la ceja (interior) Occipitofrontal vertiente frontal 4 4 Fruncir el ceño Corrugador 5 Elevar párpado superior Elevador de párpado 11 Acentuar pliegue nasolabial Zigomático menor 7 Tensar los párpados Orbicular de los párpados Elevar el labio superior Elevador del labio superior 15 Depresión esquinas del labio Depresor del ángulo de la boca 10 17 Elevar la barbilla Mentoniano 22 Labios en embudo Orbicular de los labios 54 Bajar la cabeza - 23 Afinar los labios Orbicular de los labios 64 Bajar la mirada - 24 Apretar los labios Orbicular de los labios - 25 Apertura de labios Depresor del labio inferior 26 Caída de la mandíbula Mesetero. Relajación Pterigoideos 65 Bizco Tabla 5: Unidades de acción (UA) y músculos implicados en la expresión de tristeza Tabla 8: Unidades de acción (UA) y músculos implicados en la expresión de enfado Bibliografía Abbott, J. D., Wijeratne, T., Hughes, A., Perre, D., & Lindell, A. K. (2014). The perception of positive and negative facial expressions by unilateral stroke patients. Brain and cognition, 86, 42-54. Adolphs, R. (2002). Neural systems for recognizing emotion. Current opinion in neurobiology, 12(2), 169-177. Adolphs, R., Damasio, H., Tranel, D., Cooper, G., & Damasio, A. R. (2000). A role for somatosensory cortices in the visual recognition of emotion as revealed by threedimensional lesion mapping. The Journal of Neuroscience, 20(7), 2683-2690. Adolphs, R., & Tranel, D. (1999). Intact recognition of emotional prosody following amygdala damage. Neuropsychologia, 37(11), 1285-1292. Adolphs, R., Tranel, D., Hamann, S., Young, A. W., Calder, A. J., Phelps, E. A., ... & Damasio, A. R. (1999). Recognition of facial emotion in nine individuals with bilateral amygdala damage. Neuropsychologia, 37(10), 1111-1117. Barks, S. K., Parr, L. A., & Rilling, J. K. (2013). The default mode network in chimpanzees (Pan troglodytes) is similar to that of humans. Cerebral Cortex, bht253. Bauer, H. R., & Philip, M. M. (1983). Facial and vocal individual recognition in the common chimpanzee. The Psychological Record. Barton, J. J., Press, D. Z., Keenan, J. P., & O’Connor, M. (2002). Lesions of the fusiform face area impair perception of facial configuration in prosopagnosia. Neurology, 58(1), 71-78. Blonder, L. X., Bowers, D., & Heilman, K. M. (1991). The role of the right hemisphere in emotional communication. Brain, 114(3), 1115-1127. Bruce, V., & Young, A. (1986). Understanding face recognition. British journal of psychology, 77(3), 305-327. Bruner, J. S., & Tagiuri, R. (1954). The perception of people. HARVARD UNIV CAMBRIDGE MA LAB OF SOCIAL RELATIONS. Brunsdon, R., Coltheart, M., Nickels, L., & Joy, P. (2006). Developmental prosopagnosia: A case analysis and treatment study. Cognitive neuropsychology, 23(6), 822-840. Busigny, T., de Boissezon, X., Puel, M., Nespoulous, J. L., & Barbeau, E. J. (2015). Proper name anomia with preserved lexical and semantic knowledge after left anterior temporal lesion: A two-way convergence defect. Cortex, 65, 1-18. Caldara, R., Schyns, P., Mayer, E., Smith, M. L., Gosselin, F., & Rossion, B. (2005). Does prosopagnosia take the eyes out of face representations? Evidence for a defect in representing diagnostic facial information following brain damage. Journal of Cognitive Neuroscience, 17(10), 1652-1666. Calder, A. J., & Young, A. W. (2005). Understanding the recognition of facial identity and facial expression. Nature Reviews Neuroscience, 6(8), 641-651. Carlson, N. R. (2006). Fisiología de la conducta Madrid Pearson Educacion. Chammat, M., Foucher, A., Nadel, J., & Dubal, S. (2010). Reading sadness beyond human faces. Brain research, 1348, 95-104. Collins, J. A., & Olson, I. R. (2014). Beyond the FFA: The role of the ventral anterior temporal lobes in face processing. Neuropsychologia, 61, 65-79. Dahl, C. D., Rasch, M. J., Tomonaga, M., & Adachi, I. (2013). The face inversion effect in non-human primates revisited-an investigation in chimpanzees (Pan troglodytes). Scientific reports, 3. Darwin, C. (1998). La expresión de las emociones en los animales y en el hombre. Alianza editorial. Davies-Thompson, J., Pancaroglu, R., & Barton, J. (2014). Acquired prosopagnosia: structural basis and processing impairments. Frontiers in Bioscience, 6, 159-174. De Gelder, B., Vroomen, J., Pourtois, G., & Weiskrantz, L. (1999). Non‐conscious recognition of affect in the absence of striate cortex. Neuroreport,10(18), 3759-3763. DeGutis, J., Cohan, S., Kahn, D. A., Aguirre, G. K., & Nakayama, K. (2013). Facial expression training improves emotion recognition and changes neural tuning in a patient with acquired emotion recognition deficits and prosopagnosia. Journal of Vision, 13(9), 993-993. DeGutis, J., Cohan, S., Mercado, R. J., Wilmer, J., & Nakayama, K. (2012). Holistic processing of the mouth but not the eyes in developmental prosopagnosia. Cognitive neuropsychology, 29(5-6), 419-446. DeGutis, J., Cohan, S., & Nakayama, K. (2014). Holistic face training enhances face processing in developmental prosopagnosia. Brain, awu062. Drake, R. L., Vogl, W., & Mitchell, A. W. (2010). Gray Anatomía para estudiantes. Elsevier. Duchaine, B. C., Parker, H., & Nakayama, K. (2003). Normal recognition of emotion in a prosopagnosic. PERCEPTION-LONDON-, 32(7), 827-838. Ekman, P., & Friesen, W. V. (1976). Measuring facial movement. Environmental psychology and nonverbal behavior, 1(1), 56-75. Ekman, P., Friesen, W. V., & Ellsworth, P. (1972). Emotion in the Human Face: Guide-lines for Research and an Integration of Findings: Guidelines for Research and an Integration of Findings. Pergamon. Ekman, P., Sorenson, E. R., & Friesen, W. V. (1969). Pan-cultural elements in facial displays of emotion. Science, 164(3875), 86-88. Elliott, E. A., & Jacobs, A. M. (2013). Facial expressions, emotions, and sign languages. Frontiers in psychology, 4. Garrido, L., Duchaine, B., & Nakayama, K. (2008). Face detection in normal and prosopagnosic individuals. Journal of Neuropsychology, 2(1), 119-140. Garrido, L., Furl, N., Draganski, B., Weiskopf, N., Stevens, J., Tan, G. C. Y., ... & Duchaine, B. (2009). Voxel-based morphometry reveals reduced grey matter volume in the temporal cortex of developmental prosopagnosics. Brain,132(12), 3443-3455. Gendron, M., Roberson, D., van der Vyver, J. M., & Barrett, L. F. (2014). Perceptions of emotion from facial expressions are not culturally universal: Evidence from a remote culture. Emotion, 14(2), 251. George, M. S., Parekh, P. I., Rosinsky, N., Ketter, T. A., Kimbrell, T. A., Heilman, K. M., ... & Post, R. M. (1996). Understanding emotional prosody activates right hemisphere regions. Archives of neurology, 53(7), 665-670. Gil Cubillo, J.C. 1991. El Lobo: Enigmas De Un Depredador. Ed. Cairel. Gothard, K. M., Erickson, C. A., & Amaral, D. G. (2004). How do rhesus monkeys (Macaca mulatta) scan faces in a visual paired comparison task?.Animal cognition, 7(1), 25-36. Grossi, D., Soricelli, A., Ponari, M., Salvatore, E., Quarantelli, M., Prinster, A., & Trojano, L. (2014). Structural connectivity in a single case of progressive prosopagnosia: The role of the right inferior longitudinal fasciculus. Cortex, 56, 111-120. Haxby, J. V., Hoffman, E. A., & Gobbini, M. I. (2000). The distributed human neural system for face perception. Trends in cognitive sciences, 4(6), 223-233. Heilman, K. M., Scholes, R., & Watson, R. T. (1975). Auditory affective agnosia. Disturbed comprehension of affective speech. Journal of Neurology, Neurosurgery & Psychiatry, 38(1), 69-72. Hess, U., & Thibault, P. (2009). Darwin and emotion expression. American Psychologist, 64(2), 120. Ito, K., Masuda, T., & Li, L. M. W. (2013). Agency and facial emotion judgment in context. Personality and Social Psychology Bulletin, 39(6), 763-776. Jack, R. E., Garrod, O. G., Yu, H., Caldara, R., & Schyns, P. G. (2012). Facial expressions of emotion are not culturally universal. Proceedings of the National Academy of Sciences, 201200155. Jehna, M., Neuper, C., Ischebeck, A., Loitfelder, M., Ropele, S., Langkammer, C., ... & Enzinger, C. (2011). The functional correlates of face perception and recognition of emotional facial expressions as evidenced by fMRI. Brain research, 1393, 73-83. Jones, S. S., Collins, K., & Hong, H. W. (1991). An audience effect on smile production in 10month-old infants. Psychological Science, 2(1), 45-49. Kanwisher, N. (2000). Domain specificity in face perception. Nature neuroscience, 3, 759763. Kennerknecht, I., Grueter, T., Welling, B., Wentzek, S., Horst, J., Edwards, S., & Grueter, M. (2006). First report of prevalence of non‐syndromic hereditary prosopagnosia (HPA). American Journal of Medical Genetics Part A, 140(15), 1617-1622. Kennerknecht, I., Pluempe, N., Edwards, S., & Raman, R. (2007). Hereditary prosopagnosia (HPA): the first report outside the Caucasian population. Journal of Human Genetics, 52(3), 230-236. Klineberg, O. (1940). Social psychology. New York: Holt. Kraut, R. E., & Johnston, R. E. (1979). Social and emotional messages of smiling: An ethological approach. Journal of personality and social psychology,37(9), 1539. Kumfor, F., Hutchings, R., Irish, M., Hodges, J. R., Rhodes, G., Palermo, R., & Piguet, O. (2015). Do I know you? Examining face and object memory in frontotemporal dementia. Neuropsychologia, 71, 101-111. Liu, P., Rigoulot, S., & Pell, M. D. (2015). Culture modulates the brain response to human expressions of emotion: Electrophysiological evidence.Neuropsychologia, 67, 1-13. Masuda, T., Wang, H., Ishii, K., & Ito, K. (2012). Do surrounding figures' emotions affect judgment of the target figure's emotion? Comparing the eye-movement patterns of European Canadians, Asian Canadians, Asian international students, and Japanese. Frontiers in integrative neuroscience, 6. Meletti, S., Cantalupo, G., Santoro, F., Benuzzi, F., Marliani, A. F., Tassinari, C. A., & Rubboli, G. (2014). Temporal lobe epilepsy and emotion recognition without amygdala: a case study of Urbach‐Wiethe disease and review of the literature. Epileptic Disorders, 16(4), 518-527. Mende-Siedlecki, P., Verosky, S. C., Turk-Browne, N. B., & Todorov, A. (2013). Robust selectivity for faces in the human amygdala in the absence of expressions. Journal of cognitive neuroscience, 25(12), 2086-2106. Morris, J. S., Frith, C. D., Perrett, D. I., Rowland, D., Young, A. W., Calder, A. J., & Dolan, R. J. (1996). A differential neural response in the human amygdala to fearful and happy facial expressions. Murphy, F. C., Nimmo-Smith, I. A. N., & Lawrence, A. D. (2003). Functional neuroanatomy of emotions: a meta-analysis. Cognitive, Affective, & Behavioral Neuroscience, 3(3), 207-233. Nagaishi, A., Narita, T., Gondo, Y., Nakane, S., Fukudome, T., & Matsuo, H. (2015). Leftsided metamorphopsia of the face and simple objects caused by an infarction at the right side of the splenium of the corpus callosum. Rinsho shinkeigaku= Clinical neurology. O'Neil, E. B., Hutchison, R. M., McLean, D. A., & Köhler, S. (2014). Resting-state fMRI reveals functional connectivity between face-selective perirhinal cortex and the fusiform face area related to face inversion. Neuroimage, 92, 349-355. Parr, L. A. (2001). Cognitive and physiological markers of emotional awareness in chimpanzees (Pan troglodytes). Animal Cognition, 4(3-4), 223-229. Parr, L. A., & Hopkins, W. D. (2000). Brain temperature asymmetries and emotional perception in chimpanzees, Pan troglodytes. Physiology & behavior,71(3), 363-371. Parr, L. A., Hopkins, W. D., & de Waal, F. (1998). The perception of facial expressions by chimpanzees, Pan troglodytes. Evolution of Communication,2(1), 1-23. Parr, L. A., Siebert, E., & Taubert, J. (2011). Effect of familiarity and viewpoint on face recognition in chimpanzees. Perception, 40(7), 863. Parr, L. A., Winslow, J. T., Hopkins, W. D., & de Waal, F. (2000). Recognizing facial cues: individual discrimination by chimpanzees (Pan troglodytes) and rhesus monkeys (Macaca mulatta). Journal of Comparative Psychology,114(1), 47. Phillips, M. L., Young, A. W., Scott, S., Calder, A. J., Andrew, C., Giampietro, V., ... & Gray, J. A. (1998). Neural responses to facial and vocal expressions of fear and disgust. Proceedings of the Royal Society of London. Series B: Biological Sciences, 265(1408), 1809-1817. Powell, J., Letson, S., Davidoff, J., Valentine, T., & Greenwood, R. (2008). Enhancement of face recognition learning in patients with brain injury using three cognitive training procedures. Neuropsychological rehabilitation, 18(2), 182-203. Purves, D., Augustine, G. J., Fitzpatrick, D., Hall, W. C., LaMantia, A. S., McNamara, J. O., & White, L. E. Neuroscience, 2008. De Boeck, Sinauer, Sunderland, Mass. Pyles, J. A., Verstynen, T. D., Schneider, W., & Tarr, M. J. (2013). Explicating the face perception network with white matter connectivity. PLoS One, 8(4), e61611. Ramon, M., & Rossion, B. (2010). Impaired processing of relative distances between features and of the eye region in acquired prosopagnosia—Two sides of the same holistic coin?. Cortex, 46(3), 374-389. Rapcsak, S. Z., Polster, M. R., Glisky, M. L., & Comers, J. F. (1996). False recognition of unfamiliar faces following right hemisphere damage: neuropsychological and anatomical observations. Cortex, 32(4), 593-611. Riedel, P., Ragert, P., Schelinski, S., Kiebel, S. J., & von Kriegstein, K. (2015). Visual facemovement sensitive cortex is relevant for auditory-only speech recognition. Cortex. Rivolta, D. (2014). Prosopagnosia: The Inability to Recognize Faces. InProsopagnosia (pp. 41-68). Springer Berlin Heidelberg. Rivolta, D., Woolgar, A., Palermo, R., Butko, M., Schmalzl, L., & Williams, M. A. (2014). Multi-voxel pattern analysis (MVPA) reveals abnormal fMRI activity in both the “core” and “extended” face network in congenital prosopagnosia.Frontiers in human neuroscience, 8. Rymarczyk, K., & Grabowska, A. (2007). Sex differences in brain control of prosody. Neuropsychologia, 45(5), 921-930. Sauter, D. A., & Eisner, F. (2013). Commonalities outweigh differences in the communication of emotions across human cultures. Proceedings of the National Academy of Sciences, 110(3), E180-E180. Schmidt, D. (2015). Neuro-ophthalmological findings in patients with acquired prosopagnosia. Graefe's Archive for Clinical and Experimental Ophthalmology,253(3), 333-334. Sprengelmeyer, R., Rausch, M., Eysel, U. T., & Przuntek, H. (1998). Neural structures associated with recognition of facial expressions of basic emotions.Proceedings of the Royal Society of London. Series B: Biological Sciences,265(1409), 1927-1931. Sprengelmeyer, R., Young, A. W., Calder, A. J., Karnat, A., Lange, H., Hömberg, V., ... & Rowland, D. (1996). Loss of disgust Perception of faces and emotions in Huntington's disease. Brain, 119(5), 1647-1665. Sprengelmeyer, R., Young, A. W., Pundt, I., Sprengelmeyer, A., Calder, A. J., Berrios, G., ... & Przuntek, H. (1997). Disgust implicated in obsessive–compulsive disorder. Proceedings of the Royal Society of London. Series B: Biological Sciences, 264(1389), 1767-1773. Susilo, T., & Duchaine, B. (2013). Advances in developmental prosopagnosia research. Current opinion in neurobiology, 23(3), 423-429. Tarr, M. J., & Gauthier, I. (2000). FFA: a flexible fusiform area for subordinate-level visual processing automatized by expertise. Nature neuroscience, 3, 764-770. Tavor, I., Yablonski, M., Mezer, A., Rom, S., Assaf, Y., & Yovel, G. (2014). Separate parts of occipito-temporal white matter fibers are associated with recognition of faces and places. Neuroimage, 86, 123-130. Whalen, P. J., Rauch, S. L., Etcoff, N. L., McInerney, S. C., Lee, M. B., & Jenike, M. A. (1998). Masked presentations of emotional facial expressions modulate amygdala activity without explicit knowledge. The Journal of neuroscience, 18(1), 411-418. Young, A. W., Aggleton, J. P., Hellawell, D. J., Johnson, M., Broks, P., & Hanley, J. R. (1995). Face processing impairments after amygdalotomy. Brain,118(1), 15-24. Zhu, Z., Ho, S. M., & Bonanno, G. A. (2013). Cultural similarities and differences in the perception of emotional valence and intensity: a comparison of Americans and Hong Kong Chinese. The American journal of psychology,126(3), 261-273.
© Copyright 2024