ANÁLISIS GESTUAL DE LOS ROSTROS HUMANOS

ANÁLISIS GESTUAL DE LOS
ROSTROS HUMANOS
PROSOPAGNOSIA
Grado en Biología
Trabajo Fin de Grado
Proyecto Sinergia
Departamento de Fisiología
Facultad de Biología
Junio 2015
Mª Paz Gómez de Tejada Bernal
Índice
Introducción ...............................................................................................................................2
1.- Mecanismos que subyacen a la génesis de la gestualidad ....................................................3
1.1.- Bases del control de la musculatura facial .............................................................4
2.- Mecanismos que subyacen a la interpretación de la gestualidad ..........................................6
2.1.- Procesamiento de las caras: bases neurológicas y evaluación …...........................6
2.2.- Patrones de expresión en diferentes grupos animales …........................................7
2.2.1.- Factores neurales que subyacen a la adjudicación identitaria ….............9
2.3.- Circuitos neurales implicados en el reconocimiento facial …..............................12
3.- Reconocimiento facial y emociones ….............................................................................. 14
3.1.- Naturaleza de las emociones …............................................................................14
3.2.- Amígdala. Centro de las emociones ….................................................................15
4.- Definición y alcance de las patologías que afectan a los mecanismos de reconocimiento
facial ….....................................................................................................................................17
4.1.- Lesiones en la corteza de asociación del lóbulo temporal. Déficit de
reconocimiento. Agnosias ….........................................................................................18
4.2.- Otras alteraciones patológicas …..........................................................................19
5.- Prosopagnosia ….................................................................................................................20
5.1.- Prosopagnosia congénita …..................................................................................22
5.2.- Prosopagnosia adquirida …..................................................................................23
6.- Conclusiones y perspectivas …...........................................................................................24
Anexo I ….................................................................................................................................25
Bibliografía …...........................................................................................................................26
Introducción
La emoción es el interés expectante con que se participa en algo que está ocurriendo en
el entorno. Ese efecto se construye con un conjunto de cambios fisiológicos que se producen
en un individuo a partir de esos estímulos ambientales o internos. Desde un punto de vista
psicológico, las emociones modifican la atención, hacen subir de rango ciertas conductas y
activan redes asociativas relevantes en la memoria (Carlson, 2006; Purves, 2008).
Esa
repuesta
fisiológica
emocional
abarca
diferentes
niveles
del
control
neuroendocrino y se refleja, entre otros fenómenos, en la contracción involuntaria de los
músculos de la cara; así, incluso antes de la aparición del lenguaje, las muecas evolucionaron
como vía de comunicación (Carlson, 2006; Purves, 2008).
Ante cambios ambientales, los grupos podían así reaccionar de forma coordinada. La
expresividad facial se convirtió en el eje central de la construcción de los grupos de animales
sociales. De este modo, en el caso concreto de los primates, cualquier cambio en la situación
del grupo podía ser comunicada al resto, mediante una expresión facial característica, que ha
derivado en un complejo repertorio de modificaciones del rostro (Figura 1) (Carlson, 2006;
Purves, 2008).
Figura 1: Ejemplos de las seis expresiones faciales usadas por Parr, L. A. (1998)
Modificado. Experimento de emparejamiento de caras. De izquierda a derecha, de
arriba abajo: (A) Expresión neutral, (B) labio relajado, (C) vocalizaciones
llamadas“pant-hoot”, (D) cara de juego (boca abierta y relajada), (E) cara de grito
y (F) muestra de dientes. (Cortesía de Living Links Center, Emory University.)
Obviamente, aunque en primera instancia la gestualidad descrita pudiese parecer
irrelevante para la supervivencia del individuo, si se observa la situación a nivel grupal, el
hecho de que sea posible comunicar de manera casi inmediata e instintiva la presencia de una
amenaza potencial o un recurso necesario se vuelve claramente ventajoso.
Figura 2: Esquema de los músculos de la cara (A) y cuero cabelludo (B)
(Drake y cols., 2010 Modificado)
Un individuo sin grupo ve mermada su capacidad de supervivencia y los grupos
precisan comunicación entre sus miembros, es decir la capacidad de reflejar en el rostro los
sentimientos, así como la habilidad de reconocer esas facciones y relacionarlas con lo que
ocurre alrededor (Carlson, 2006; Purves, 2008).
Se delimitan así dos problemas de gestión de los patrones conductuales; por un lado la
génesis de las expresiones faciales de cada individuo y paralelamente cómo dicho individuo
reconoce las generadas por otro.
1.- Mecanismos que subyacen a la génesis de la gestualidad.
El repertorio de expresiones faciales que un individuo es capaz de generar constituye
su marco gestual, siendo una de las bases de la comunicación no verbal intra e interespecífica.
Entre humanos, de hecho, dicha gestualidad se ha convertido en el recurso clave para la
correcta interacción no verbal y para enfatizar la información verbal, definiendo gran parte de
las acciones recíprocas a través del intercambio de miradas entre rostros (Carlson, 2006;
Purves, 2008).
1.1.- Bases del control de la musculatura facial
En el rostro humano se encuentran numerosos músculos (Figura 2), pero no todos ellos
se relacionan de forma directa con la génesis de la expresión de las emociones en la cara. Así,
los músculos encargados de la expresión facial se hallan en el cuero cabelludo, en la zona de
la cara y el cuello. Situados en el tejido subcutáneo de la parte anterior y posterior del rostro,
se encargan de desplazar la piel para modificar las expresiones faciales, manifestando de este
modo los estados de ánimo. El control de esta musculatura se sitúa en la zona ponto-bulbar del
encéfalo a nivel de los núcleos motores del facial y del trigémino, que se encargan de la
producción de las expresiones de la cara (Drake y cols., 2010).
Dado que la expresividad depende de la contracción específica de conjuntos concretos
de músculos, parece evidente que la valoración de la actividad de dicha musculatura puede
permitir predecir un gesto dado. En este sentido, el clásico diseño de numeración de Ekman y
Friesen (1976) permitía definir con precisión, y de manera objetiva, las contracciones de los
músculos durante un proceso expresivo (Anexo 1). Gracias a este sistema, es posible el
estudio de la expresión facial de las emociones de una manera empírica y evitando, en gran
medida, la subjetividad de la observación. Se definieron así las seis emociones básicas. Esas
emociones clásicas son las actualmente consideradas, no sin controversia, emociones innatas,
basándose en la teoría Darwiniana (1872) que mantiene que las emociones tal y como las
conocemos son seleccionables por el ambiente.
Según esta teoría, todas las emociones son universales e innatas, lo que explicaría que
diversas culturas hayan desarrollado expresiones parecidas, como se demostró en los años 70.
Miembros de colonias aisladas, e incluso probablemente no contactadas, eran capaces de
reconocer expresiones faciales producidas por un occidental. Las expresiones faciales
constituirían patrones de conducta no aprendidas, al menos en su definición más básica de
afecto, peligro o violencia (Ekman y cols., 1972). Esta teoría evolucionista ha sido debatida
ampliamente. Existen trabajos que no se oponían a la idea de la universalidad de las
expresiones, aunque pusieron de manifiesto algunas objeciones. Por ejemplo, existirían
expresiones con carácter claramente cultural, como sacar la lengua como forma de sorpresa en
China o los saludos de respeto o apretones de manos japoneses y occidentales, o el número de
besos intercambiados en los distintos países europeos (Klineberg, 1940; Bruner y Tagiori,
1954).
En este sentido, se ha demostrado, mediante pruebas de identificación de expresiones
emocionales, que se captarían más detalles en las caras de etnias próximas que en individuos
de diferentes grupos étnicos; así, incluso utilizándose modelos no humanos en 3D, los
individuos podían reconocer con mayor facilidad las expresiones con caras que mostrasen sus
rasgos propios. Sin embargo, este hecho no influye en el reconocimiento de la intensidad de la
expresión. Esto llevó a concluir que la expresión y el reconocimiento de las emociones estaría
determinada, o al menos, modulada, por la cultura (Jack y cols., 2012; Sauter y Eisner, 2013;
Zhu y cols., 2013).
No obstante, una de las controversias más recientes sobre los experimentos prouniversales provendría de la obligación de clasificar las emociones en categorías previamente
definidas por una palabra. Existen estudios que intentaron demostrar la subjetividad de este
tipo de pruebas, recogiendo resultados que harían pensar que, si bien la teoría de la
universalidad no quedaba refutada, tampoco debía ser aceptada tan rápidamente sin la
existencia de experimentos que carecieran de restricciones lingüísticas (Gendron y cols.,
2014).
Por último, se ha puesto en duda no sólo la universalidad de las emociones, sino
también la capacidad de reconocimiento de dichas emociones, tanto en relación al contexto en
cada cultura, como en la respuesta neurocognitiva hacia distintas características de la
expresión emocional multisensorial, que podría estar relacionada con los patrones previos de
identificación de rostros (también relacionados con características étnicas) (Masuda y cols.,
2012; Ito y cols., 2013; Liu y cols., 2015).
No obstante, el hecho es que en menor o mayor medida, los grupos humanos, por
diferentes que sean, son capaces de determinados mínimos de comunicación común no verbal
que sí parecería universal; por ello, la teoría universal de las emociones sigue actualmente
vigente, habiendo estudios que intentan dar explicación a todos los debates abiertos. Parece
ser que cada expresión tendría un significado universal, pero que podría ser usada en distintos
momentos o con diferente significado global, dependiendo del acompañamiento de señales
con las manos, de movimientos del cuerpo o de sonidos (Elliot y Jacobs, 2013). Incluso
aunque haya rasgos comunes mínimos, lo cierto es que las emociones clásicas no se producen
de manera aislada o independiente, sino que pueden existir mezclas o evolucionar entre ellas.
De hecho, no existe una región cerebral encargada específicamente del reconocimiento de
cada emoción, sino que se produce la activación de distintos circuitos cerebrales, comunes o
específicos para la identificación de cada emoción. En la tabla 1 se detallan las áreas
cerebrales activadas en el reconocimiento del estado neutro frente a las diversas
combinaciones de modificaciones emocionales (Jehna y cols., 2011).
Neutro
Enfado
Enfado Circunvolución frontal superior
Miedo
Asco
Circunvolución frontal superior
Circunvolución frontal medial
Circunvolución frontal medial
izquierda
Circunvolución cingulada posterior
Corteza cingulada anterior
Corteza occipital lateral
NO
SIGNIFICATIVO
Circunvolución temporal medial
Miedo
Asco
NO
NO SIGNIFICATIVO
Polo occipital
Corteza orbital frontal
Polo occipital
Corteza occipital lateral
Corteza insular frontal
Polo frontal
Corteza medial frontal
Corteza occipital lateral
Polo occipital Circunvolución fusiforme occipital
lateral
SIGNIFICATIVO
Corteza frontal orbital/insular
Tabla 1: Áreas cerebrales activadas al reconocer las diversas modificaciones emocionales (Jehna y cols., 2011).
2.- Mecanismos que subyacen a la interpretación de la gestualidad.
Toda esta enorme inversión en control gestual se justifica en que la integridad y
estabilidad de los grupos de animales sociales precisa de un consenso interpretativo de los
diferentes gestos producidos por los distintos individuos. Es por ello que el correcto
procesamiento e identificación de las intenciones y de las expresiones emocionales del resto
de los individuos del grupo sea crucial para la supervivencia del mismo (Carlson, 2006;
Purves, 2008).
2-1.- Procesamiento de caras: bases neurológicas y evaluación
Los animales evalúan continuamente el entorno a través de su campo visual y esto
incluye las caras de sus congéneres. En este contexto, por ejemplo, un cerebro humano normal
evalúa cualquier rostro nuevo por sus proporciones diferenciadoras de ojos, nariz y boca y
busca una correspondencia entre todas las caras familiares almacenadas en la memoria a largo
plazo cuyo objetivo final es la identificación del sujeto (Carlson, 2006; Purves, 2008).
El reconocimiento de la identidad de un individuo simplemente por el estímulo facial
podría ser considerado como algo relativamente sencillo y, sin embargo, resulta abrumador el
elevadísimo número de identidades que se puede almacenar en el cerebro. Es necesario por
tanto, un mecanismo que permita guardar toda esa información y, lo más importante, que
tenga la capacidad de acceder a ella de manera inmediata. En el ser humano, este mecanismo
de reconocimiento de la identidad de un rostro se realiza siguiendo una serie de etapas,
definidas en términos de Psicolingüística (Lopera, 2000). Así, se acepta que el primer evento
que se produce es la construcción del percepto facial (Lopera, 2000), para lo que se realiza un
análisis en paralelo de cuatro características faciales:
•
La apariencia facial, también denominada patrón facial, que es el reconocimiento del
estímulo visual dentro de la categoría de las caras.
•
La distinción de las características particulares del rostro en cuestión y su distribución
espacial, que permite determinar diferentes grados de parecido entre rostros diferentes.
•
Las expresiones faciales, que representan el análisis conjunto de características
faciales permitiendo determinar la emoción del interlocutor expresada en el rostro.
•
Por último, el lenguaje facial que incluye los movimientos oro-linguo-labiales.
Producido el percepto facial del rostro, se generará la comparación con las huellas de
memoria de caras previamente conocidas y almacenadas. Esto es extremadamente importante,
pues permite identificar a los miembros del propio grupo. Si existiera alguna concordancia, se
produciría una sensación de familiaridad con el rostro, y se activaría el acceso a su
reconocimiento. Este acceso se produce gracias a las unidades de reconocimiento facial, que
serían una suerte de almacén de las huellas de memoria de caras previamente conocidas y que
establecen una conexión entre el percepto facial y la memoria semántica, que es un tipo de
memoria declarativa de la que depende nuestro conocimiento general sobre el mundo y el
lenguaje (Lopera, 2000).
Así, la activación de la memoria semántica relativa a las personas se produciría previa
activación de un cierto nodo de identidad personal, que a su vez, puede ser activado por
distintas rutas sensoriales (percepto facial, percepto auditivo de la voz o el percepto gráfico o
auditivo del nombre). De este modo, la memoria semántica incluye la información biográfica
de la persona de igual forma que el nodo de información visual o auditiva contendría sus
huellas (Lopera, 2000).
Una vez se ha activado la memoria semántica, se produce la activación de la memoria
léxica, es decir, se selecciona el nombre correspondiente. A la memoria léxica se puede
acceder desde la representación consciente del rostro o desde cualquiera de las
representaciones semánticas del nodo de identidad personal (Lopera, 2000). El individuo
entonces ha reconocido al sujeto y le ha otorgado toda la información previa que poseía sobre
él.
2.2.- Patrones de expresión en diferentes grupos animales
Aunque la descripción de las fases de reconocimiento del individuo y la adjudicación
de información (en gran medida verbal) sea típicamente humana, la adjudicación de estados
emocionales a otros individuos y el reconocimiento de los miembros de los grupos aparece en
en todos los animales sociales. Históricamente, ya Darwin en “La expresión de las emociones
en los animales y en el hombre” (1872) aborda la manera en que humanos y otros animales
(principalmente pájaros y mamíferos) expresan sus emociones. Darwin describió tres
principios básicos de la expresión de las emociones:
•
El primero es el denominado “Principio del hábito útil”, y está basado en su idea de la
heredabilidad y de la evolución de las expresiones de las emociones. Determinó que
dichas expresiones debían ser funcionalmente adaptativas, o al menos, tuvieron que
serlo en algún momento de la evolución.
•
El segundo principio o “Principio de antítesis” defiende que dos expresiones que
reflejen emociones contrarias deben ser morfológicamente opuestas. Un claro ejemplo
es el de dominancia y sumisión en animales (Figura 3).
•
El último principio es el “Principio de la acción directa de la activación Sistema
Nervioso”; según el cual, algunas expresiones, serían consecuencia de la necesidad del
sistema nervioso de descargar un cierto supuesto “exceso de excitación”.
Figura 3: A la izquierda pauta típica de sumisión en el lobo (Canis lupus). A la
derecha, pauta de dominancia. Modificado de Gil, 1991
Aunque se pude considerar bastante general la existencia de patrones de
reconocimiento intragrupales en el Reino Animal, los primates son un grupo excepcional en
este sentido. Así, los monos rhesus (Macaca mulatta) tienen la capacidad de identificación
individual mostrando una clara preferencia por la observación de una cara desconocida frente
a otra conocida, lo que implicaría que reconocen la cara familiar y esto les motiva a explorar
la desconocida. Además, la vista del rhesus se centra en la zona de los ojos durante el proceso
de reconocimiento de la identidad. Sin embargo, frente a una expresión emocional, los monos
no se centran únicamente en los ojos, sino que prestan mayor atención a las características
distintivas de esa emoción (boca abierta, dientes fuera. etc.) (Gothard y col. 2004). En el caso
de los chimpancés (Pan troglodytes), su capacidad para reconocer la identidad de otro
chimpancé (atendiendo únicamente a la visualización del rostro) se exploró mediante un
método de comparación-relación, con el cual los monos debían relacionar una foto de un
chimpancé con otra, dentro de las opciones dadas. Tras varias pruebas de distinta complejidad,
se determinó que existía una clara preferencia por relacionar, correctamente, la foto de un
individuo dado con otra foto que contuviese el rostro del mismo chimpancé (Parr y cols. 2000;
Dahl y cols., 2013).
2.2.1. Factores neurales que subyacen a la adjudicación identitaria
La identidad, reconocida según sus rasgos faciales, y la capacidad de determinar las
emociones (usando únicamente los estímulos físicos provenientes del rostro de las personas)
han sido estudiadas por diversos especialistas, habiendo incluso dos modelos funcionales
diferentes (aunque probablemente complementarios) que explicarían el proceso (Bruce y
Young, 1986; Haxby y cols., 2000).
En uno de estos modelos se propone que a nivel central el reconocimiento de la
identidad a través de estímulos faciales estaría separado de la detección de emociones en las
expresiones de las caras. Según este modelo, existen rutas paralelas para reconocer la
identidad facial, la expresión facial y movimientos oro-linguo-faciales (muy importantes en el
reconocimiento del estímulo auditivo). Se postuló así que los estímulos visuales se procesaban
separadamente. Esta idea se apoya en diversos estudios en psicología cognitiva,
neuropsicología, diagnóstico por la imagen y registros neurofisiológicos en primates no
humanos (Bruce y Young, 1986; Riedel y cols., 2015).
En el modelo alternativo del sistema neural humano para el reconocimiento de caras se
identifica qué estructuras neurales están implicadas en reconocer cada una de las dos
informaciones distintas recogidas del estimulo facial. Según este modelo, el estimulo visual de
un rostro es analizado por dos sistemas, el sistema central, donde se produce el análisis visual,
y el sistema extendido, donde se hace un análisis más exhaustivo (Haxby y cols., 2000).
En el sistema central (Figura 4), la cara es reconocida en la circunvolución occipital
inferior, que enviaría la información a otras estructuras encargadas de reconocer distintos
aspectos estructurales de los rostros. Por un lado, se encuentra el surco temporal superior,
donde se analizan los aspectos modificables de las caras (emoción y otra información noverbal así como dirección de la atención). Por otro lado, la circunvolución fusiforme lateral
analiza los aspectos invariables de las caras. (Haxby y cols., 2000).
Paralelamente, en el sistema extendido (Figura 5) se encuentran distintas regiones,
encargadas cada una de un aspecto específico. Dentro de los aspectos modificables, el surco
intraparietal analiza la dirección espacial de la atención, la corteza auditiva analiza la
información oro-linguo-facial, y las emociones son procesadas por la amígdala, la ínsula y el
resto del sistema límbico. Del análisis íntegro de los aspectos invariables, más concretamente,
la identidad de la misma, el nombre o biografía del individuo, se encargaría el lóbulo temporal
anterior (Haxby y cols., 2000).
Figura 4: Sistema central de reconocimiento facial
Figura 5: Sistema extendido de reconocimiento
según el modelo propuesto por Haxby y cols. (2000). facial según el modelo propuesto por Haxby y cols.
Modificado. Circunvolución occipital inferior (rojo)
(2000). Modificado. Surco intraperietal (rojo).
Surco temporal superior (verde) y Circunvolución
Corteza auditiva (verde). Sistema límbico (azul).
fusiforme lateral (azul)
Lóbulo temporal anterior (amarillo)
Recientemente se ha observado que la circunvolución occipital inferior y
circunvolución fusiforme lateral se encuentran muy interconectadas entre sí y con los lóbulos
temporales anteriores ventrales mediante dos tractos, cuya lesión en humanos se correlaciona
con ciertos defectos en el reconocimiento facial. Sin embargo, no se han encontrado
conexiones directas entre el surco temporal superior y las áreas de identificación facial de la
zona ventral. No obstante, parece que el surco temporal superior interactuaría con dichas
regiones ventrales de manera indirecta. Esta información apoyaría el modelo de dos vías
independientes para los distintos aspectos del rostro ya que el surco temporal superior está
más relacionado con el reconocimiento de las expresiones y la dirección de la mirada mientras
que las áreas ventrales serían claves para el reconocimiento facial (Grossi y cols. 2012; Pyles
y cols. 2013; Tavor y cols., 2013, O'Neil y cols., 2014).
Los dos modelos ponen de manifiesto que, en algún punto del circuito, se produciría
una bifurcación de la información, y ambos sugieren que dicha bifurcación se produciría
inmediatamente después de la entrada del estímulo. Sería necesario, pues, un sistema que
pueda extraer y separar las diferentes señales faciales. Además, este modelo está apoyado por
la existencia de personas con incapacidad de reconocer una de las dos señales, pero
completamente capacitadas para reconocer la contraria (Duchaine y cols., 2003).
El reconocimiento de un rostro con una
expresión neutra produce, en el ser humano, la
activación tanto del surco temporal superior como de
la
circunvolución
occipital
inferior
y
de
la
circunvolución lateral fusiforme (Haxby y cols., 2000).
Mediante estudios de imagen (Figura 6) por resonancia
magnética funcional se observó que las correlaciones
neurales del reconocimiento de las caras incluían
además de la activación de la circunvolución fusiforme
occipital temporal, la de la corteza cerebral occipital
lateral, la circunvolución frontal inferior, el cerebelo,
Figura 6: Resultados del experimento de
Jehna y colaboradores (2011). Modificado.
Se muestran las activaciones producidas por
las caras neutras en relación a imágenes de
casas (azul) o a imágenes pixeladas de caras
(rojo)
el lóbulo parietal superior, las cortezas intracalcarina, e insular y la amígdala (Jehna y cols.,
2011).
Otros modelos de estudio con monos rhesus han demostrado la existencia de neuronas
concretas cuyas respuestas correlacionan con la identificación y reconocimiento de los
estímulos específicos. Estas neuronas se encuentran en la corteza temporal, y su
comportamiento es compatible con el reconocimiento de estímulos complejos, que está
asociado a la corteza temporal humana. Un ejemplo es la respuesta de algunas neuronas de la
circunvolución temporal inferior de la corteza del mono rhesus, que son muy selectivas,
activándose únicamente con la visión frontal de un rostro de otro mono (Carlson, 2006;
Purves, 2008). De hecho, se ha observado que los chimpancés reconocen con mayor facilidad
a un mono por su rostro si éste se presenta frontalmente que si lo observan de perfil (Parr y
cols., 2011).
Si bien la especificidad de estas neuronas es muy alta, no llegan a activarse únicamente
frente a un rostro específico. Se cree, sin embargo, que cada neurona se dispara con una
característica del rostro, y que la activación en conjunto de distintas neuronas son las que
permitirían reconocerlo e identificarlo. Existen estudios que han sugerido que las neuronas de
la corteza temporal estarían organizadas igual que en la corteza visual primaria, esto es, en
disposición columnar. La localización de la actividad en las capas superiores de la corteza se
va desplazando sistemáticamente a medida que se van modificando las características de los
objetos, en el caso de la identidad y el reconocimiento facial, la orientación de la cara. Es por
ello que se piensa que la identificación de objetos, o específicamente de rostros, se produciría
más por análisis de las señales graduadas que de las eferencias específicas de una única célula
(Carlson, 2006; Purves, 2008).
2.3.- Circuitos neurales implicados en el reconocimiento facial
Identificar al sujeto no basta, sino que la gestión de la expresividad emocional precisa
de la adecuada generación de modificaciones del rostro coherentes con la situación de
contexto. Está demostrado que el ser humano tiende a expresar las emociones en la cara con
más intensidad cuando se encuentra en un entorno social, incluso desde una edad muy
temprana, a partir de los 10 meses. El cerebro, por tanto, maneja tanto información sobre el
control de la gestualidad como de la interpretación de la misma (Kraut y Johnston, 1979;
Jones y cols., 1991).
Se piensa que el reconocimiento emocional de estímulos visuales y auditivos se
produce mayoritariamente en el hemisferio derecho del cerebro, mientras que el
reconocimiento de las palabras se produciría en el izquierdo. Por ejemplo, pacientes con daños
en el hemisferio derecho serían capaces de relacionar ciertas frases o situaciones propuestas
con emociones, sin embargo, no podrían saber qué emoción hay tras una expresión facial
(Blonder y cols., 1991; Abbot y cols., 2013).
Los estudios realizados en chimpancés mostraron, usando el sentido de la circulación
sanguínea cerebral como método indirecto de medición de la actividad cerebral, que se
produce una activación asimétrica de los hemisferios cerebrales ante la captación de un
estímulo visual emotivo. Al proyectar vídeos con escenas positivas o negativas, se detectó un
aumento de la temperatura en el tímpano derecho, lo que sugiere un aumento en la actividad
cerebral en el hemisferio homolateral (Parr y Hopkins, 2000). También, mediante estudios con
tomografías por emisión de positrones se observó que los lóbulos frontales aumentaban su
actividad al captar la emoción a partir de la descripción del contexto donde se generaba la
misma, con una mayor activación del izquierdo que del derecho. Sin embargo, cuando la
emoción se captaba a través del tono de voz, se producía un aumento de la actividad en la
corteza prefrontal derecha. Estos datos coinciden con los obtenidos en estudios con pacientes
con daño cerebral en los que aquellos con lesiones unilaterales de la región temporo-parietal,
mostrarían una menor precisión en el análisis de emociones expresadas con la voz, que los
individuos sanos (sobre todo en el caso de la tristeza) (Heilman y cols., 1975; George y cols.,
1996; Rymarczyk y Grabowska, 2007).
Aparentemente, la perturbación más severa se produce debido a un daño cerebral por
lesión de la corteza somatosensorial del hemisferio derecho, sugiriendo esto que cuando se ve
la expresión facial de una emoción, se generarían representaciones somatosensoriales de la
misma, sabiendo así cómo se siente la persona observada. Por ello, los pacientes con daños en
áreas somatosensoriales mostrarían también dificultades para el reconocimiento de las
expresiones emocionales en el rostro, más específicamente el miedo (Adolphs y cols; 2000;
Rymarczyk y Grabowska, 2007).
En el reconocimiento emocional de la expresiones en otros primates se ha estudiado,
como ocurría con las identidades, la capacidad para discriminar caras según su expresión
emocional, sometiendo a los individuos a pruebas de relación. Tras cinco días de pruebas, los
chimpancés lograban distinguir cuatro de las cinco expresiones con facilidad. En este sentido,
los chimpancés serían capaces de discriminar caras neutras de caras expresivas pero cuando
dos expresiones son muy parecidas, al individuo le cuesta más discriminarlas y, por lo tanto,
cuantas más diferencias morfológicas existen entre dos expresiones, mejor distinción hará, en
la linea del principio de antítesis. Se ha demostrado, además, que cuando se muestra una
expresión emocional a un chimpancé, se produce la activación a nivel central de regiones
cerebrales muy similares a las encargadas de detectar y analizar dichas expresiones en el
cerebro humano (Bauer y cols., 1983; Parr y cols., 1998; Barks y cols., 2013).
En definitiva, en el rostro se produce la mayor expresión emocional y además, el
cerebro humano está programado para reconocerlas jerárquicamente. De hecho, si se muestra
a un ser humano imágenes con expresiones neutras y expresiones de tristeza, ambas realizadas
por otro ser humano y, además, plasmadas en un robot humanoide, el cerebro humano será
capaz de discriminar entre la cara humana y un objeto con características similares a las de un
rostro. Sin embargo, el estímulo emocional de tristeza producido por el robot humanoide será
reconocido por el cerebro antes que el estímulo neutro, lo que implica la activación de las
áreas encargadas de otorgar etiquetas emocionales que pueden ser muy importantes para
determinar un patrón de conducta dado ante un sujeto desconocido. Esta disminución del
tiempo de reacción se observa también cuando se muestran las expresiones realizadas por
seres humanos, obviamente (Chammat y cols., 2010).
Por último, estados afectivos concretos parecen distribuirse con cierta especificidad
por diferentes regiones del sistema nervioso. Así, en humanos, a nivel central, se producen
cambios en las señales de la ínsula y el globo pálido cuando se reconoce el asco. Mientras que
respecto al miedo se ha determinado que su reconocimiento está asociado con la activación de
la corteza orbitofrontal y la amígdala (Murphy y cols., 2003).
3.- Reconocimiento facial y emociones
El estudio del reconocimiento facial, por tanto, debe tener en cuenta dos procesos: la
identificación del individuo y la adjudicación de los estados emocionales de los otros sujetos.
Establecido que una emoción se define como una alteración del ánimo intensa y pasajera,
agradable o penosa que va acompañada de cierta conmoción somática, el rostro, que soporta
una identidad dada, tiene, además, que reflejar esa alteración (Carlson, 2006; Purves, 2008).
3.1.- Naturaleza de las emociones
Una respuesta emocional está constituida por tres componentes controlados por
sistemas neurales independientes:
•
El componente conductual determinado por el conjunto de movimientos musculares
apropiados a la situación que lo provoca.
•
El componente neurovegetativo asociado al correlato autonómico de cualquier
respuesta emocional que facilite las conductas y aporte una movilización rápida de
energía para realizar movimientos vigorosos.
•
El componente hormonal constituido por la liberación de hormonas encargadas de
reforzar las respuestas neurovegetativas. Son numerosas las substancias implicadas
pero dentro del eje hipotálamo-hipofisiario-adrenal, destacan específicamente la
liberación, por la médula suprarrenal de adrenalina y noradrenalina, así como de
hormonas esteroides por parte de la corteza suprarrenal (Carlson, 2006; Purves,
2008).
No obstante, la etiqueta emocional sobre un acontecimiento a nivel central se organiza
a través, fundamentalmente, de la amígdala, que tiene un papel destacado en las integración de
las reacciones fisiológicas y comportamentales ante objetos y situaciones que tienen una
relevancia biológica especial, tales como los que indican dolor, cosas desagradables o
peligrosas, alimento, agua o parejas potenciales.
Cuando se presentan estímulos emocionalmente relevantes, se activa el núcleo
accumbens, componente del circuito de recompensa, que a su vez tiene aferencias hacia la
amígdala. Esta estrecha relación de la amígdala con el circuito de recompensa implica un
elevado contenido emocional a la hora de tomar decisiones (Carlson, 2006; Purves, 2008).
Tradicionalmente a todo este circuito encargado de la gestión emocional se le denomina el
sistema límbico. En él, el estimulo llegaría al tálamo, desde donde se envía información, por
un lado a la corteza sensorial y por otro, al hipotálamo, donde se produce la respuesta
corporal. Posteriormente, la información llega a la corteza cingulada, directamente desde la
corteza sensorial, e indirectamente por medio del tálamo anterior, desde el hipotálamo. Es
desde la corteza cingulada desde donde se produciría la experiencia emocional, más
comúnmente denominada “sensación”, que está compuesta de percepciones, pensamientos y
recuerdos (Carlson, 2006; Purves, 2008).
El caso concreto del reconocimiento de rostros y la adjudicación de componentes
afectivos a los mismos, así como la respuesta emocional que la identificación genera, se
gestiona como un patrón complejo de conductas que implica a todo el cerebro emocional
(Carlson, 2006; Purves, 2008).
3.2.- Amígdala. Centro de la emociones.
La amígdala, o complejo amigdalino, se encuentra en los lóbulos temporales. Está
compuesta por varios grupos de núcleos, cada uno con diferentes patrones de aferencias y
eferencias, y con funciones diversas (Figura 7). El núcleo medial recibe aferencias sensoriales
(olores y feromonas) y envía eferencias hacia el prosencéfalo basal medial y al hipotálamo. El
núcleo lateral recibe información sensorial desde la corteza sensorial primaria, la corteza de
asociación visual, el tálamo y la formación hipocampal, y produce eferencias al estriado
ventral (relacionado con los efectos de estímulos reforzadores sobre el aprendizaje) y al
núcleo dorso-medial del tálamo, que a su vez proyecta a la corteza prefrontal. El núcleo lateral
también envía información a los núcleos basales y al basal accesorio, ambos de la propia
Figura 7: Esquemas de las vías de transmisión de la información
en la amígdala
amígdala. El núcleo central recibe aferencias del núcleo lateral, de los núcleos basales y del
basal accesorio. Envía información a regiones del hipotálamo, mesencéfalo, protuberancia y
bulbo (todas encargadas de los diferentes componentes de la respuesta emocional y, en el caso
concreto de la identificación de sujetos, la adjudicación de una etiqueta emocional) (Carlson,
2006; Purves, 2008).
Se sabe por numerosos datos previos que la amígdala desempeña una función
importante en el reconocimiento de las emociones. De hecho, existen estudios que demuestran
que en algunos casos de daño en la amígdala (debido a intervenciones quirúrgicas en pacientes
con epilepsia, o a algún tipo de traumatismo), los pacientes ven disminuida su capacidad de
reconocimiento de las expresiones faciales (Young y cols., 1995; Adolphs y cols., 1999;
Morris y cols., 1996; Whalen y cols., 1998; Mende-Siedlecki y cols., 2013).
Aunque daños en la amígdala puedan ocasionar dificultades en el reconocimiento de
expresiones faciales de emoción, varios estudios han demostrado que dicha dificultad para
reconocer las emociones no se daría si el estímulo fuese vocal en vez de facial , lo que llevaría
a pensar que la amígdala es responsable, no del reconocimiento emocional en general, sino del
reconocimiento de la expresión facial de las emociones (Adolphs y Tranel, 1999; Meletti y
cols., 2014).
Teniendo en cuenta esto, es obvio que todo el constructo debe recibir información
visual para desarrollar su función. Sin embargo, esta información no vendría desde la corteza
visual de asociación. Esta área cerebral, encargada parcialmente del reconocimiento
identitario del rostro, no sería el origen de la información que recibe la amígdala, ya que
existen pacientes con daños puntuales en dicha área que han desarrollado prosopagnosia
(ceguera hacia las caras) y, sin embargo, son capaces de reconocer sin problema las
expresiones faciales (de Gelder y cols., 1999; Duchaine y cols., 2003; Rivolta, 2014).
De hecho, mediante un estudio de neuroimagen funcional con un paciente de estas
características se descubrió que cuando se le mostraban rostros con expresiones de temor, se
activaban el colículo superior, el tálamo posterior y la amígdala, incluso aunque el paciente no
era consciente del estímulo. Uno de los modelos propuestos sería que la amígdala recibiera
aferencias visuales desde el tálamo, a través de dos fuentes. Una de las fuentes sería
subcortical, en principio la más importante, desde el colículo superior y el tálamo pulvinar; la
otra sería la ruta cortical desde la neocorteza visual (Morris y cols., 2001; Adolphs, 2002).
Teniendo en cuenta la cantidad de áreas implicadas en el reconocimiento de la
identidad y de las expresiones en un rostro, es fácil imaginarse la gran variedad de patologías
derivadas de la lesión o degeneración de dichas áreas.
4.- Definición y alcance de las patologías que afectan a los
mecanismos de reconocimiento facial.
Existen diferentes cuadros patológicos asociados a una gestión anómala de los
mecanismos de reconocimiento facial. Algunos están centrados en la disfunción visual, y otros
en el marco de adjudicación de significación al estímulo visual (Carlson, 2006; Purves, 2008)
El proceso se iniciaría como una respuesta a un estímulo visual. Las neuronas de la
corteza visual responden selectivamente a las características específicas del entorno. El ojo
recoge de un rostro, por tanto, una gran variedad de información, por lo que sería sencillo
deducir que existen distintos tratamientos y vías para los diferentes tipos de información. De
estas vías, la que mayor información lleva es la vía visual primaria, desde la retina hasta el
núcleo geniculado dorsolateral en el tálamo, y hasta la corteza visual primaria. El
procesamiento en paralelo de las distintas informaciones recogidas continúa en las vías
corticales, que se extienden más allá de la corteza visual primaria, aportando distintas áreas
visuales en los lóbulos occipital, parietal y temporal. El reconocimiento del rostro en la
categoría de las caras se produce en el lóbulo temporal mientras que el análisis del
movimiento se realiza en el lóbulo parietal. Toda la información se integraría en la corteza
visual de asociación (Purves, 2008; Kumfor y cols., 2015).
Aparte de la vía visual primaria, existen otras dianas específicas de los axones de las
células ganglionares del ojo (Figura 8), como la región pretectal o el núcleo supraquiasmático
y el colículo superior (Carlson, 2006; Purves 2008).
Figura 8: Estructuras implicadas en el transporte de la información
visual. Modificado de Purves (2008)
La vía visual primaria puede verse afectada a nivel del sistema nervioso central o a
nivel de la retina. Estas afectaciones producirían de manera directa un efecto negativo en
regiones particulares del campo visual. Sabiendo que en las estructuras visuales centrales se
mantienen las relaciones espaciales de las retinas, se pueden analizar los campos visuales para
indicar el sitio de daño neurológico en zonas de integración o de análisis de la información
visual. Se denominan anopsias a los defectos grandes en el campo visual, mientras que si son
más pequeños, se conocen como estocomas (Carlson, 2006; Purves 2008).
4.1.- Lesiones en la corteza de asociación del lóbulo temporal. Déficit de reconocimiento.
Agnosias
Reconocer e identificar quiénes somos y qué sentimos requiere un patrón de conducta
más allá de los estímulos visuales que, obviamente, son necesarios pero no suficientes. Se
denomina déficit de reconocimiento a la afección por la cual se deja de distinguir de las demás
a una persona o cosa por sus rasgos o características. Se ha demostrado mediante pruebas
clínicas que una de las funciones de la corteza de asociación del lóbulo temporal es el
reconocimiento y la identificación de los estímulos, principalmente los estímulos complejos.
Es por ello que los problemas para reconocer, identificar o denominar objetos pueden deberse
a daño en esta zona del encéfalo. Estas deficiencias, denominadas agnosias, se diferencian de
las llamadas negligencias en que en estas últimas se niega el conocimiento de la información,
mientras que en las agnosias el estímulo es percibido, pero no reconocido o identificado
(Carlson, 2006; Purves 2008).
Las agnosias que involucran objetos son casos específicos dentro de los distintos
déficits funcionales, caracterizados por la incapacidad de reconocer un estímulo complejo
como familiar y, posteriormente, identificar y nombrar dicho estímulo. Según el tamaño y
localización de la lesión en la corteza lateral, las agnosias pueden ser tan generales, como la
incapacidad de reconocer la mayoría de los objetos familiares, o tan específicas como las
relacionadas con los rostros humanos. Se han descrito dos tipos de agnosias, la agnosia visual
asociativa y la agnosia visual aperceptiva. En la primera, los pacientes perciben los objetos y
los describen morfológicamente, sin embargo no son capaces de reconocerlos y aunque sepan
la definición de la palabra no son capaces de formar una imagen mental del objeto (Carlson,
2006; Purves, 2008).
Agnosia visual asociativa
Se perciben los objetos
Agnosia visual aperceptiva No se perciben los objetos
Los describen morfológicamente
No pueden reconocerlos
No pueden describirlos
No pueden reconocerlos
Tabla 2: Diferencias entre agnosia visual aperceptiva y asociativa
Por otro lado, en la agnosia visual aperceptiva, los pacientes no pueden percibir
visualmente los objetos. Al no poder percibirlos, no son capaces de reconocerlos en su
conjunto (Purves, 2008). Sin embargo, podrían reconocer los detalles y así llegar a deducir lo
que es. Un síntoma común es la prosopagnosia, que es la incapacidad de reconocer los rostros
humanos concretos. Los pacientes son capaces de reconocer los ojos, la boca o la nariz, pero
no saben la identidad de la persona (Lopera, 2000).
Por otro lado, dentro del complejo espectro autista, en algunos de estos individuos no
se activa el área fusiforme de las caras al ver rostros, dando lugar a una deficiencia en el
desarrollo de las interacciones sociales con los demás, siendo, en los casos más graves,
incapaces de reconocer la existencia de otras personas (Carlson, 2006; Purves, 2008).
4.2.- Otras alteraciones patológicas
Existen además otros trastornos en el reconocimiento de rostros. Un ejemplo es la
anomia para los nombres propios (prosopanomia), que es considerada un trastorno lingüístico
o afasia. En estos pacientes, el fallo se produce tras la creación del percepto, la activación del
sentimiento de familiaridad y tras la evocación de las memorias semánticas de los nodos de
identidad personal. Se conserva la información biográfica del individuo observado, pero el
paciente es incapaz de acceder al nombre (Lopera, 2000; Busigny y cols., 2015).
Otra alteración patológica es la denominada “falso reconocimiento”. Los pacientes con
este trastorno no son capaces de determinar si un rostro es o no familiar. El falso
reconocimiento de caras, sin prosopagnosia, se observa después de un daño prefrontal
derecho. Se produciría, por tanto, una atribución de familiaridad a un estimulo facial sin la
activación de la representación mnésica subyacente (Rapcsak y cols., 1996; Lopera, 2000)
La metamorfopsia es otro de los múltiples trastornos en la identificación del rostro,
pero sin embargo, los pacientes con esta afección no tienen dañada la maquinaria de
reconocimiento, sino la percepción del rostro. Las personas con este trastorno perciben los
estímulos faciales distorsionados, lo que les impediría discriminar correctamente las
características particulares de un rostro por daños en el lóbulo temporal izquierdo (Lopera,
2000; Nagaishi y cols., 2015).
También se han descrito alteraciones de hipoemocionalidad visual. Se trata de
pacientes con prosopagnosia que pierden el placer estético visual. Las áreas visuales se
encontrarían desconectadas de los lóbulos temporales y del sistema límbico, por lo que se
produciría una activación incompleta de las representaciones afectivas de los nodos de
identidad emocional (Lopera, 2000).
Por último, se han descrito desórdenes neuropsiquiátricos (como esquizofrenia,
Huntington o trastornos obsesivos) relacionados con algún tipo de déficit de reconocimiento
de las expresiones faciales de las emociones. Parece ser que aunque las expresiones
emocionales son muy diversas, se ha determinado que las emociones con más problemas a la
hora del reconocimiento son las consideradas negativas (miedo, asco y enfado) dentro de las
seis básicas (Jehna y cols., 2011).
En este sentido se ha visto que en algunos pacientes la esquizofrenia puede ir
acompañada de una disminución de la respuesta neural hacia las expresiones negativas (Jehna
y cols., 2011). De igual forma, también se ha encontrado déficit de reconocimiento facial del
miedo tras un daño bilateral en la amígdala. Un fallo de conexión entre el ganglio basal y el
estriado como el producido en la corea de Huntington (Sprengelmeyer y cols 1996), o en el
trastorno obsesivo-compulsivo (Sprengelmeyer, 1997) da lugar a una deficiencia en el
reconocimiento del asco. Los resultados de los estudios de neuroimagen funcional corroboran
dichos hallazgos (Sprengelmeyer y cols., 1998; Phillips y cols., 1998).
5.- Prosopagnosia
Pocas afecciones son tan intrigantes como la prosopagnosia en humanos. La
prosopagnosia (del griego ΠΡΟΣΩΠΟ, que significa “rostro”) es la incapacidad para
reconocer y/o identificar rostros. Siendo una de las agnosias mejor estudiadas, fue reconocida
por los neurólogos a finales del siglo XIX. Sin embargo, no sería una única entidad, sino una
familia de desórdenes con diferentes lesiones cerebrales que producirían distintos déficits
funcionales (Davies-Thompson y cols., 2014) Los pacientes con este daño son incapaces de
identificar a las personas por sus características faciales, incluso aquellas más cercanas, como
familiares o amigos. En algunos casos más extremos los pacientes no son capaces ni siquiera
de reconocer en absoluto un rostro como humano frente a otro estímulo visual (Lopera, 2000).
Aunque no son capaces de adjudicar una identidad a un rostro presentado, algunos
pacientes con prosopagnosia tienen conservada la capacidad de reconocer expresiones
emocionales. Esto apoyaría que ambos procesos fuesen independientes. Además, la
prosopagnosia se ha asociado con agnosia al color, alteraciones de la imaginación visual e
hipoemocionalidad visual (Schmidt, 2015).
Aunque diferentes patologías puedan afectar a los mecanismos neurales que subyacen
al reconocimiento facial (el Alzheimer, la corea de Huntington o la enfermedad de Párkinson
provocan déficits en este aspecto conductual), el término “prosopagnosia” se utiliza
únicamente en pacientes con un déficit selectivo de reconocimiento facial que no puede ser
explicado por problemas de percepción, cognición o memoria (Davies-Thompson, 2014).
Respecto a su origen, dado que diversos estudios por imagen
realizados en individuos normales han determinado que es
fundamentalmente en la corteza temporal inferior donde se
produce el reconocimiento de los rostros, ésta es el área
donde se han centrado inicialmente los estudios para
determinar el problema específico de los pacientes con
prosopagnosia.
Asimismo,
cuando
se
produce
una
estimulación directa en los lóbulos temporales (como los
realizados previamente a una extirpación de un foco
epiléptico), el paciente puede desarrollar una prosopagnosia
transitoria, probablemente producida por la activación
anormal de las regiones implicadas en el reconocimiento
Figura 9: Relación de daños
cerebrales
y las distintas patologías
facial. También se ha descubierto que regiones cercanas entre
producidas. Davies-Thompson y cols.,
2014 Modificado.
sí pueden tener funciones de reconocimiento categóricamente
diferentes. Así, el daño en regiones posteriores de la corteza inferior occipito-temporal puede
dar dificultades en la codificación perceptual temprana, así como en la codificación de las
estructuras estáticas, resultando en una prosopagnosia aperceptiva. Por su parte, el daño en la
corteza inferior temporal anterior produce dificultades para recuperar la memoria facial,
produciendo una prosopagnosia asociativa. Por último, lesiones en el polo temporal anterior
pueden llevar a problemas con la información biográfica, produciendo amnesia específica de
la persona (Figura 9) (Davies-Thompson y cols., 2014).
De manera general, el reconocimiento facial viene determinado por el efecto “la parte
por el todo”, por el cual una persona es capaz de reconocer mejor una característica facial
específica (como los ojos o la boca) si ésta se encuentra formando parte de un rostro completo
que si la observa aisladamente. Los pacientes con prosopagnosia muestran este efecto para
características como la boca o la nariz. Sin embargo, obtienen el mismo grado de
reconocimiento al observar los ojos en un todo o de manera aislada, sugiriendo que un fallo en
el procesamiento de los ojos podría ser un factor importante en la prosopagnosia (Ramon y
Rossion, 2010; DeGutis y cols., 2012).
5.1.- Prosopagnosia congénita
Se denomina prosopagnosia congénita al desorden por el cual los pacientes son
incapaces, desde su nacimiento, de reconocer la identidad de una persona cuando el estímulo
es un rostro. Se caracteriza por no presentar daño cerebral aparente. Se desarrollaría tras un
fallo en el desarrollo cerebral. Gracias a pruebas con neuroimagen se ha observado que una
menor activación en los lóbulos temporales anteriores ventrales puede derivar en un déficit de
reconocimiento facial, incluso aunque existiera una correcta activación de las otras áreas
cerebrales relacionadas con la clasificación identitaria. Otra explicación parece ser la pérdida
de materia gris en varias regiones conocidas por responder selectivamente a las caras, más
concretamente en la circunvolución fusiforme y la circunvolución temporal inferior (Garrido y
cols., 2009; Collins y Olson, 2014). Diversos estudios habrían determinado que este tipo de
prosopagnosia podría tener un origen genético, teniendo una heredabilidad compatible con un
gen dominante autosómico (Kennerknecht y cols., 2006; Kennerknecht y cols., 2007).
Dada la variedad sintomática y genética, es obvio que la prosopagnosia congénita es
un desorden muy heterogéneo. Algunos pacientes tendrían problemas con la memoria de la
identidad facial, pero podrían agrupar caras iguales sin ningún problema y otros no son
capaces de realizar ninguna de las tareas. Existen datos de pacientes con problemas para el
reconocimiento de un rostro entre otros objetos, y pacientes con limitaciones de
reconocimiento de las características no identitarias de la cara, como las expresiones, el sexo
o el atractivo (Garrido y cols., 2008; Susilo y Duchaine, 2013).
En pacientes con este tipo de prosopagnosia (Figura 10) se ha encontrado una
capacidad reducida en la discriminación entre caras u objetos, así como una disminución en la
actividad tanto en el sistema central (área fusiforme de la cara) como en el sistema extendido
(corteza temporal anterior) (Rivolta y cols., 2014).
Se han explorado diferentes estrategias terapéuticas para mejorar la calidad de vida de
los pacientes con este tipo de patología. Los tratamientos compensatorios se han aplicado con
éxito en niños, aunque en adultos no produce resultados tan favorables (Brunsdon y cols.,
2006). Mediante este tipo de tratamiento se intenta enseñar a los pacientes cómo evitar los
déficits de reconocimiento facial mediante procesamiento semántico, estrategias verbales, etc.
Por otro lado, los tratamientos correctivos, como clasificar caras basándose en las distancias
entre los rasgos faciales de manera diaria, producen una mejora temporal en el reconocimiento
facial en individuos con prosopagnosia congénita, tanto en la edad adulta como en la infancia
(DeGutis y cols., 2014).
No obstante, esta diversidad en las manifestaciones de la prosopagnosia cognitiva hace
que el estudio de posibles terapias sea muy complicado, por lo que se ha llegado a sugerir la
necesidad de elaborar una taxonomía de la prosopagnosia (Susilo y Duchaine, 2013).
Figura 10: Imágenes por resonancia magnética funcional (Rivolta y cols., 2014).
Modificado. Comparativa de las activaciones cerebrales al visualizar rostros frente a
objetos en individuos con prosopagnosia congénita (derecha) e individuos control
(izquierda)
5.2.- Prosopagnosia adquirida
Se denomina prosopagnosia adquirida a la pérdida de la habilidad para reconocer
rostros derivada de un daño cerebral. Afecta al reconocimiento de caras familiares y de
nuevos rostros. Sin embargo, existe una forma de prosopagnosia adquirida anterógrada, muy
rara, por la cual el déficit se limita a caras encontradas desde la lesión (Young y cols., 1995;
Davies-Thompson y cols., 2014).
Dependiendo de la localización y la extensión de la lesión, este tipo de prosopagnosia
puede producir distintas sintomatologías. Existen pacientes que son incapaces no sólo de
determinar la identidad tras un rostro, sino que también desarrollarían dificultades para
realizar distinciones sutiles entre objetos (por ejemplo, tipos de coches o especies de aves)
(Davies-Thompson y cols., 2014). Esto reforzaría la idea de algunos autores de que la
prosopagnosia adquirida sería consecuencia de algún tipo de deterioro de una cierta red
experta en determinar diferencias sutiles entre ejemplares distintos de una misma categoría,
donde la caras serían únicamente un ejemplo de un daño mayor (Tarr y Gauthier, 2000). No
obstante, existen numerosos estudios donde se describen pacientes con ceguera para los
rostros como consecuencia de una lesión en el área fusiforme de las caras, que sin embargo
son capaces de reconocer de manera general distintos tipos de objetos, como coches o
animales (Kanwisher, 2000).
Paralelamente, se ha demostrado la existencia de deficiencias en el procesamiento de
la información de la región de los ojos en algunos pacientes con prosopagnosia adquirida
(Caldara y cols., 2005). Otros estudios sugieren que los pacientes no podrían juzgar las
distancias relativas entre la características faciales (Barton y cols., 2002). Sin embargo,
recientemente se ha publicado una hipótesis que afirma que estas dos observaciones estarían
relacionadas entre sí y que la prosopagnosia adquirida se desarrollaría debido a un fallo en el
procesamiento holístico (habilidad de percibir elementos múltiples de una cara como una
representación global) (Ramon y Rossion, 2010).
Esta diversidad de sintomatologías supone, como en el caso de la prosopagnosia
congénita, una dificultad añadida a la hora de probar distintos tratamientos. En el caso de los
pacientes con prosopagnosia adquirida, se ha observado que con tratamientos compensatorios
y correctivos se produce un leve aumento del reconocimiento de las caras con las que se han
realizado los ensayos. Sin embargo, cuando se mostraban caras nuevas, no se observaba
ninguna mejoría (Powell y cols., 2008; DeGutis y cols., 2013).
6.- Conclusiones y perspectivas.
•
El reconocimiento facial integra un conjunto de patrones de conductas y estrategias
adaptativas esenciales en los grupos sociales de animales.
•
Establecer un proceso de reconocimiento implica mecanismos de adjudicación de
identidad y de características emocionales ajustadas a las características del contexto.
•
El reconocimiento facial está mediado por un mecanismo complejo que incluye
distintas y diversas áreas cerebrales (circunvolución fusiforme lateral, circunvolución
occipital frontal y surco temporal superior) cuyos daños o lesiones pueden producir
déficits de todo tipo.
•
Los déficits de reconocimiento facial incluidos dentro del término “prosopagnosia” se
caracterizan por un impedimento a la hora de la identificación de una persona
mediante un estímulo facial, definiéndose distintos tipos según dónde se observe la
alteración (captación del estímulo o análisis del mismo) o por su etiología (congénita
o adquirida)
•
Debido a la heterogeneidad en la sintomatología, sería necesario realizar un mayor
número de estudios relacionados con esta patología para determinar cuáles son las
estrategias más favorables para la evolución positiva de cada paciente así como
desarrollar herramientas individualizadas para su compresión y abordaje.
Anexo I
Sorpresa
Alegría
UA Movimiento
Músculo de expresión
UA Movimiento
Músculo de expresión
1
Elevar la ceja (interior)
Occipitofrontal vertiente frontal
6
Elevar la mejillas
Orbicular de los párpados
2
Elevar la ceja (exterior) Occipitofrontal vertiente occipital
12
Elevar las comisuras del labio Cigomático mayor
5
Elevar párpado superior Elevador de párpado
26
Caída de la mandíbula
Mesetero. Relajación Pterigoideos
27
Apertura de boca
Pterigoideos
Tabla 6: Unidades de acción (UA) y músculos implicados en la
expresión de alegría
Tabla 3: Unidades de acción (UA) y músculos implicados en la
expresión de sorpresa
Asco
Miedo
UA Movimiento
Músculo de expresión
UA Movimiento
Músculo de expresión
Elevar la ceja (interior)
Occipitofrontal vertiente frontal
1
Elevar la ceja (interior)
Occipitofrontal vertiente frontal
1
2
Elevar la ceja (exterior)
Occipitofrontal vertiente occipital
9
Arrugar la nariz
Elevador del ala nasal
4
Fruncir el ceño
Corrugador
10
Elevar el labio superior
Elevador del labio superior
Depresión esquinas labio Depresor del ángulo de la boca
5
Elevar párpado superior
Elevador de párpado
15
20
Estiramiento de labios
Risorio
16
Depresión labio inferior
Depresor del labio inferior
25
Apertura de labios
Depresor del labio inferior
17
Elevar la barbilla
Mentoniano
Apertura de labios
Depresor del labio inferior
Caída de la mandíbula
Mesetero. Relajación Pterigoideos
26
Caída de la mandíbula
Mesetero. Relajación Pterigoideos
25
27
Apertura de boca
Pterigoideos
26
Tabla 7: Unidades de acción (UA) y músculos implicados en la
expresión del asco
Tabla 4: Unidades de acción (UA) y músculos implicados en la
expresión el miedo
Enfado
Tristeza
UA Movimiento
Músculo de expresión
UA Movimiento
Músculo de expresión
Fruncir el ceño
Corrugador
1
Elevar la ceja (interior)
Occipitofrontal vertiente frontal
4
4
Fruncir el ceño
Corrugador
5
Elevar párpado superior Elevador de párpado
11
Acentuar pliegue nasolabial
Zigomático menor
7
Tensar los párpados
Orbicular de los párpados
Elevar el labio superior
Elevador del labio superior
15
Depresión esquinas del labio Depresor del ángulo de la boca
10
17
Elevar la barbilla
Mentoniano
22
Labios en embudo
Orbicular de los labios
54
Bajar la cabeza
-
23
Afinar los labios
Orbicular de los labios
64
Bajar la mirada
-
24
Apretar los labios
Orbicular de los labios
-
25
Apertura de labios
Depresor del labio inferior
26
Caída de la mandíbula
Mesetero. Relajación Pterigoideos
65
Bizco
Tabla 5: Unidades de acción (UA) y músculos implicados en la
expresión de tristeza
Tabla 8: Unidades de acción (UA) y músculos implicados en la
expresión de enfado
Bibliografía
Abbott, J. D., Wijeratne, T., Hughes, A., Perre, D., & Lindell, A. K. (2014). The perception of
positive and negative facial expressions by unilateral stroke patients. Brain and
cognition, 86, 42-54.
Adolphs, R. (2002). Neural systems for recognizing emotion. Current opinion in
neurobiology, 12(2), 169-177.
Adolphs, R., Damasio, H., Tranel, D., Cooper, G., & Damasio, A. R. (2000). A role for
somatosensory cortices in the visual recognition of emotion as revealed by threedimensional lesion mapping. The Journal of Neuroscience, 20(7), 2683-2690.
Adolphs, R., & Tranel, D. (1999). Intact recognition of emotional prosody following
amygdala damage. Neuropsychologia, 37(11), 1285-1292.
Adolphs, R., Tranel, D., Hamann, S., Young, A. W., Calder, A. J., Phelps, E. A., ... & Damasio,
A. R. (1999). Recognition of facial emotion in nine individuals with bilateral amygdala
damage. Neuropsychologia, 37(10), 1111-1117.
Barks, S. K., Parr, L. A., & Rilling, J. K. (2013). The default mode network in chimpanzees
(Pan troglodytes) is similar to that of humans. Cerebral Cortex, bht253.
Bauer, H. R., & Philip, M. M. (1983). Facial and vocal individual recognition in the common
chimpanzee. The Psychological Record.
Barton, J. J., Press, D. Z., Keenan, J. P., & O’Connor, M. (2002). Lesions of the fusiform face
area impair perception of facial configuration in prosopagnosia. Neurology, 58(1), 71-78.
Blonder, L. X., Bowers, D., & Heilman, K. M. (1991). The role of the right hemisphere in
emotional communication. Brain, 114(3), 1115-1127.
Bruce, V., & Young, A. (1986). Understanding face recognition. British journal of
psychology, 77(3), 305-327.
Bruner, J. S., & Tagiuri, R. (1954). The perception of people. HARVARD UNIV CAMBRIDGE
MA LAB OF SOCIAL RELATIONS.
Brunsdon, R., Coltheart, M., Nickels, L., & Joy, P. (2006). Developmental prosopagnosia: A
case analysis and treatment study. Cognitive neuropsychology, 23(6), 822-840.
Busigny, T., de Boissezon, X., Puel, M., Nespoulous, J. L., & Barbeau, E. J. (2015). Proper
name anomia with preserved lexical and semantic knowledge after left anterior temporal
lesion: A two-way convergence defect. Cortex, 65, 1-18.
Caldara, R., Schyns, P., Mayer, E., Smith, M. L., Gosselin, F., & Rossion, B. (2005). Does
prosopagnosia take the eyes out of face representations? Evidence for a defect in
representing diagnostic facial information following brain damage. Journal of Cognitive
Neuroscience, 17(10), 1652-1666.
Calder, A. J., & Young, A. W. (2005). Understanding the recognition of facial identity and
facial expression. Nature Reviews Neuroscience, 6(8), 641-651.
Carlson, N. R. (2006). Fisiología de la conducta Madrid Pearson Educacion.
Chammat, M., Foucher, A., Nadel, J., & Dubal, S. (2010). Reading sadness beyond human
faces. Brain research, 1348, 95-104.
Collins, J. A., & Olson, I. R. (2014). Beyond the FFA: The role of the ventral anterior
temporal lobes in face processing. Neuropsychologia, 61, 65-79.
Dahl, C. D., Rasch, M. J., Tomonaga, M., & Adachi, I. (2013). The face inversion effect in
non-human
primates
revisited-an
investigation
in
chimpanzees
(Pan
troglodytes). Scientific reports, 3.
Darwin, C. (1998). La expresión de las emociones en los animales y en el hombre. Alianza
editorial.
Davies-Thompson, J., Pancaroglu, R., & Barton, J. (2014). Acquired prosopagnosia: structural
basis and processing impairments. Frontiers in Bioscience, 6, 159-174.
De Gelder, B., Vroomen, J., Pourtois, G., & Weiskrantz, L. (1999). Non‐conscious recognition
of affect in the absence of striate cortex. Neuroreport,10(18), 3759-3763.
DeGutis, J., Cohan, S., Kahn, D. A., Aguirre, G. K., & Nakayama, K. (2013). Facial
expression training improves emotion recognition and changes neural tuning in a patient
with acquired emotion recognition deficits and prosopagnosia. Journal of Vision, 13(9),
993-993.
DeGutis, J., Cohan, S., Mercado, R. J., Wilmer, J., & Nakayama, K. (2012). Holistic
processing of the mouth but not the eyes in developmental prosopagnosia. Cognitive
neuropsychology, 29(5-6), 419-446.
DeGutis, J., Cohan, S., & Nakayama, K. (2014). Holistic face training enhances face
processing in developmental prosopagnosia. Brain, awu062.
Drake, R. L., Vogl, W., & Mitchell, A. W. (2010). Gray Anatomía para estudiantes. Elsevier.
Duchaine, B. C., Parker, H., & Nakayama, K. (2003). Normal recognition of emotion in a
prosopagnosic. PERCEPTION-LONDON-, 32(7), 827-838.
Ekman, P., & Friesen, W. V. (1976). Measuring facial movement. Environmental psychology
and nonverbal behavior, 1(1), 56-75.
Ekman, P., Friesen, W. V., & Ellsworth, P. (1972). Emotion in the Human Face: Guide-lines
for Research and an Integration of Findings: Guidelines for Research and an Integration
of Findings. Pergamon.
Ekman, P., Sorenson, E. R., & Friesen, W. V. (1969). Pan-cultural elements in facial displays
of emotion. Science, 164(3875), 86-88.
Elliott, E. A., & Jacobs, A. M. (2013). Facial expressions, emotions, and sign
languages. Frontiers in psychology, 4.
Garrido, L., Duchaine, B., & Nakayama, K. (2008). Face detection in normal and
prosopagnosic individuals. Journal of Neuropsychology, 2(1), 119-140.
Garrido, L., Furl, N., Draganski, B., Weiskopf, N., Stevens, J., Tan, G. C. Y., ... & Duchaine,
B. (2009). Voxel-based morphometry reveals reduced grey matter volume in the temporal
cortex of developmental prosopagnosics. Brain,132(12), 3443-3455.
Gendron, M., Roberson, D., van der Vyver, J. M., & Barrett, L. F. (2014). Perceptions of
emotion from facial expressions are not culturally universal: Evidence from a remote
culture. Emotion, 14(2), 251.
George, M. S., Parekh, P. I., Rosinsky, N., Ketter, T. A., Kimbrell, T. A., Heilman, K. M., ... &
Post, R. M. (1996). Understanding emotional prosody activates right hemisphere
regions. Archives of neurology, 53(7), 665-670.
Gil Cubillo, J.C. 1991. El Lobo: Enigmas De Un Depredador. Ed. Cairel.
Gothard, K. M., Erickson, C. A., & Amaral, D. G. (2004). How do rhesus monkeys (Macaca
mulatta) scan faces in a visual paired comparison task?.Animal cognition, 7(1), 25-36.
Grossi, D., Soricelli, A., Ponari, M., Salvatore, E., Quarantelli, M., Prinster, A., & Trojano, L.
(2014). Structural connectivity in a single case of progressive prosopagnosia: The role of
the right inferior longitudinal fasciculus. Cortex, 56, 111-120.
Haxby, J. V., Hoffman, E. A., & Gobbini, M. I. (2000). The distributed human neural system
for face perception. Trends in cognitive sciences, 4(6), 223-233.
Heilman, K. M., Scholes, R., & Watson, R. T. (1975). Auditory affective agnosia. Disturbed
comprehension of affective speech. Journal of Neurology, Neurosurgery &
Psychiatry, 38(1), 69-72.
Hess, U., & Thibault, P. (2009). Darwin and emotion expression. American
Psychologist, 64(2), 120.
Ito, K., Masuda, T., & Li, L. M. W. (2013). Agency and facial emotion judgment in
context. Personality and Social Psychology Bulletin, 39(6), 763-776.
Jack, R. E., Garrod, O. G., Yu, H., Caldara, R., & Schyns, P. G. (2012). Facial expressions of
emotion are not culturally universal. Proceedings of the National Academy of Sciences,
201200155.
Jehna, M., Neuper, C., Ischebeck, A., Loitfelder, M., Ropele, S., Langkammer, C., ... &
Enzinger, C. (2011). The functional correlates of face perception and recognition of
emotional facial expressions as evidenced by fMRI. Brain research, 1393, 73-83.
Jones, S. S., Collins, K., & Hong, H. W. (1991). An audience effect on smile production in 10month-old infants. Psychological Science, 2(1), 45-49.
Kanwisher, N. (2000). Domain specificity in face perception. Nature neuroscience, 3, 759763.
Kennerknecht, I., Grueter, T., Welling, B., Wentzek, S., Horst, J., Edwards, S., & Grueter, M.
(2006). First report of prevalence of non‐syndromic hereditary prosopagnosia
(HPA). American Journal of Medical Genetics Part A, 140(15), 1617-1622.
Kennerknecht, I., Pluempe, N., Edwards, S., & Raman, R. (2007). Hereditary prosopagnosia
(HPA): the first report outside the Caucasian population. Journal of Human
Genetics, 52(3), 230-236.
Klineberg, O. (1940). Social psychology. New York: Holt.
Kraut, R. E., & Johnston, R. E. (1979). Social and emotional messages of smiling: An
ethological approach. Journal of personality and social psychology,37(9), 1539.
Kumfor, F., Hutchings, R., Irish, M., Hodges, J. R., Rhodes, G., Palermo, R., & Piguet, O.
(2015). Do I know you? Examining face and object memory in frontotemporal
dementia. Neuropsychologia, 71, 101-111.
Liu, P., Rigoulot, S., & Pell, M. D. (2015). Culture modulates the brain response to human
expressions of emotion: Electrophysiological evidence.Neuropsychologia, 67, 1-13.
Masuda, T., Wang, H., Ishii, K., & Ito, K. (2012). Do surrounding figures' emotions affect
judgment of the target figure's emotion? Comparing the eye-movement patterns of
European Canadians, Asian Canadians, Asian international students, and
Japanese. Frontiers in integrative neuroscience, 6.
Meletti, S., Cantalupo, G., Santoro, F., Benuzzi, F., Marliani, A. F., Tassinari, C. A., &
Rubboli, G. (2014). Temporal lobe epilepsy and emotion recognition without amygdala: a
case study of Urbach‐Wiethe disease and review of the literature. Epileptic
Disorders, 16(4), 518-527.
Mende-Siedlecki, P., Verosky, S. C., Turk-Browne, N. B., & Todorov, A. (2013). Robust
selectivity for faces in the human amygdala in the absence of expressions. Journal of
cognitive neuroscience, 25(12), 2086-2106.
Morris, J. S., Frith, C. D., Perrett, D. I., Rowland, D., Young, A. W., Calder, A. J., & Dolan, R.
J. (1996). A differential neural response in the human amygdala to fearful and happy
facial expressions.
Murphy, F. C., Nimmo-Smith, I. A. N., & Lawrence, A. D. (2003). Functional neuroanatomy
of emotions: a meta-analysis. Cognitive, Affective, & Behavioral Neuroscience, 3(3),
207-233.
Nagaishi, A., Narita, T., Gondo, Y., Nakane, S., Fukudome, T., & Matsuo, H. (2015). Leftsided metamorphopsia of the face and simple objects caused by an infarction at the right
side of the splenium of the corpus callosum. Rinsho shinkeigaku= Clinical neurology.
O'Neil, E. B., Hutchison, R. M., McLean, D. A., & Köhler, S. (2014). Resting-state fMRI
reveals functional connectivity between face-selective perirhinal cortex and the fusiform
face area related to face inversion. Neuroimage, 92, 349-355.
Parr, L. A. (2001). Cognitive and physiological markers of emotional awareness in
chimpanzees (Pan troglodytes). Animal Cognition, 4(3-4), 223-229.
Parr, L. A., & Hopkins, W. D. (2000). Brain temperature asymmetries and emotional
perception in chimpanzees, Pan troglodytes. Physiology & behavior,71(3), 363-371.
Parr, L. A., Hopkins, W. D., & de Waal, F. (1998). The perception of facial expressions by
chimpanzees, Pan troglodytes. Evolution of Communication,2(1), 1-23.
Parr, L. A., Siebert, E., & Taubert, J. (2011). Effect of familiarity and viewpoint on face
recognition in chimpanzees. Perception, 40(7), 863.
Parr, L. A., Winslow, J. T., Hopkins, W. D., & de Waal, F. (2000). Recognizing facial cues:
individual discrimination by chimpanzees (Pan troglodytes) and rhesus monkeys
(Macaca mulatta). Journal of Comparative Psychology,114(1), 47.
Phillips, M. L., Young, A. W., Scott, S., Calder, A. J., Andrew, C., Giampietro, V., ... & Gray,
J. A. (1998). Neural responses to facial and vocal expressions of fear and
disgust. Proceedings of the Royal Society of London. Series B: Biological
Sciences, 265(1408), 1809-1817.
Powell, J., Letson, S., Davidoff, J., Valentine, T., & Greenwood, R. (2008). Enhancement of
face recognition learning in patients with brain injury using three cognitive training
procedures. Neuropsychological rehabilitation, 18(2), 182-203.
Purves, D., Augustine, G. J., Fitzpatrick, D., Hall, W. C., LaMantia, A. S., McNamara, J. O.,
& White, L. E. Neuroscience, 2008. De Boeck, Sinauer, Sunderland, Mass.
Pyles, J. A., Verstynen, T. D., Schneider, W., & Tarr, M. J. (2013). Explicating the face
perception network with white matter connectivity. PLoS One, 8(4), e61611.
Ramon, M., & Rossion, B. (2010). Impaired processing of relative distances between features
and of the eye region in acquired prosopagnosia—Two sides of the same holistic
coin?. Cortex, 46(3), 374-389.
Rapcsak, S. Z., Polster, M. R., Glisky, M. L., & Comers, J. F. (1996). False recognition of
unfamiliar faces following right hemisphere damage: neuropsychological and anatomical
observations. Cortex, 32(4), 593-611.
Riedel, P., Ragert, P., Schelinski, S., Kiebel, S. J., & von Kriegstein, K. (2015). Visual facemovement sensitive cortex is relevant for auditory-only speech recognition. Cortex.
Rivolta, D. (2014). Prosopagnosia: The Inability to Recognize Faces. InProsopagnosia (pp.
41-68). Springer Berlin Heidelberg.
Rivolta, D., Woolgar, A., Palermo, R., Butko, M., Schmalzl, L., & Williams, M. A. (2014).
Multi-voxel pattern analysis (MVPA) reveals abnormal fMRI activity in both the “core”
and “extended” face network in congenital prosopagnosia.Frontiers in human
neuroscience, 8.
Rymarczyk, K., & Grabowska, A. (2007). Sex differences in brain control of
prosody. Neuropsychologia, 45(5), 921-930.
Sauter, D. A., & Eisner, F. (2013). Commonalities outweigh differences in the communication
of emotions across human cultures. Proceedings of the National Academy of
Sciences, 110(3), E180-E180.
Schmidt, D. (2015). Neuro-ophthalmological findings in patients with acquired
prosopagnosia. Graefe's Archive for Clinical and Experimental Ophthalmology,253(3),
333-334.
Sprengelmeyer, R., Rausch, M., Eysel, U. T., & Przuntek, H. (1998). Neural structures
associated with recognition of facial expressions of basic emotions.Proceedings of the
Royal Society of London. Series B: Biological Sciences,265(1409), 1927-1931.
Sprengelmeyer, R., Young, A. W., Calder, A. J., Karnat, A., Lange, H., Hömberg, V., ... &
Rowland, D. (1996). Loss of disgust Perception of faces and emotions in Huntington's
disease. Brain, 119(5), 1647-1665.
Sprengelmeyer, R., Young, A. W., Pundt, I., Sprengelmeyer, A., Calder, A. J., Berrios, G., ... &
Przuntek, H. (1997). Disgust implicated in obsessive–compulsive disorder. Proceedings
of the Royal Society of London. Series B: Biological Sciences, 264(1389), 1767-1773.
Susilo, T., & Duchaine, B. (2013). Advances in developmental prosopagnosia
research. Current opinion in neurobiology, 23(3), 423-429.
Tarr, M. J., & Gauthier, I. (2000). FFA: a flexible fusiform area for subordinate-level visual
processing automatized by expertise. Nature neuroscience, 3, 764-770.
Tavor, I., Yablonski, M., Mezer, A., Rom, S., Assaf, Y., & Yovel, G. (2014). Separate parts of
occipito-temporal white matter fibers are associated with recognition of faces and
places. Neuroimage, 86, 123-130.
Whalen, P. J., Rauch, S. L., Etcoff, N. L., McInerney, S. C., Lee, M. B., & Jenike, M. A.
(1998). Masked presentations of emotional facial expressions modulate amygdala activity
without explicit knowledge. The Journal of neuroscience, 18(1), 411-418.
Young, A. W., Aggleton, J. P., Hellawell, D. J., Johnson, M., Broks, P., & Hanley, J. R. (1995).
Face processing impairments after amygdalotomy. Brain,118(1), 15-24.
Zhu, Z., Ho, S. M., & Bonanno, G. A. (2013). Cultural similarities and differences in the
perception of emotional valence and intensity: a comparison of Americans and Hong
Kong Chinese. The American journal of psychology,126(3), 261-273.