Información

Reconociendo expresiones faciales

Reconociendo expresiones faciales



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Creo recordar haber leído un artículo hace algunos años sobre un estudio o un conjunto de estudios que examinaban el impacto que tiene una historia en la interpretación de las expresiones faciales.

Algo en la línea de donde a los diferentes participantes se les cuentan diferentes historias sobre un evento y luego se les muestra una imagen de una expresión facial y se les pide que describan lo que siente la persona en la imagen. El estudio, como lo recuerdo vagamente, examinó cómo cambiaba la interpretación de la expresión facial en función de las diferentes historias dadas.

¿Te suena esto? Mis búsquedas en Google están mostrando temas relacionados, pero no esto específicamente. No tengo un conocimiento especial del tema, lo que dificulta mi capacidad para realizar una búsqueda útil, y me gustaría leer más al respecto.

Si hay un nombre para este efecto, suponiendo que exista tal efecto, me ayudaría considerablemente a encontrar información sobre él.

Agradecería mucho su consideración y sugerencias. Gracias.


Reduciendo sus opciones

Esta capacidad de rápido desarrollo para identificar diferentes rostros y expresiones faciales es de gran valor para los bebés. Sin embargo, esto también conduce a que los bebés desarrollen preferencias por ciertos rostros o la incapacidad de identificar algunos otros.

Por ejemplo, poco después del nacimiento, los bebés muestran una preferencia por mirar caras que los adultos consideran "atractivas" a las caras "poco atractivas".

Y los niños de un año incluso se comportan de manera diferente con personas con caras más atractivas, sonriendo y jugando más con adultos atractivos que con adultos poco atractivos.

Los bebés eligen estar con personas que consideran más atractivas. Steve Baker, CC BY-ND

Quizás aún más sorprendente es que los bebés distinguen entre los rostros de otras razas a los nueve meses.

Los investigadores llaman a este fenómeno "estrechamiento de la percepción": significa que los cerebros de los recién nacidos son lo suficientemente flexibles como para distinguir entre una variedad de caras diferentes (incluso caras de diferentes especies) desde el nacimiento.

Pero a medida que se vuelven expertos en identificar las caras que ven con más frecuencia, pierden la capacidad de diferenciar las caras que se ven diferentes de las que les son más familiares. En otras palabras, comienzan a tener problemas para decidir si dos caras de una raza diferente son la misma persona o dos personas diferentes.


Umbrales de reconocimiento más bajos para expresiones faciales tristes en depresión subumbral: un estudio longitudinal

La depresión subumbral (ETS) es más frecuente que el trastorno depresivo mayor (TDM) en todo el mundo. Estudios anteriores han indicado que la depresión está asociada con una percepción deficiente de las expresiones faciales. Sin embargo, para las personas con ETS, sigue siendo en gran parte desconocido si la sensibilidad perceptiva hacia las expresiones faciales podría alterarse y si estas alteraciones podrían estabilizarse con el tiempo. Usando el procedimiento psicométrico QUEST, aquí evaluamos los umbrales de reconocimiento de cinco expresiones faciales (enojado, miedo, feliz, triste y neutral) para individuos con ETS y controles no deprimidos. Estos sujetos fueron reexaminados después de intervalos de tiempo de aproximadamente 2 meses. En la evaluación inicial, las personas con ETS demostraron umbrales de reconocimiento más bajos (es decir, mayor sensibilidad) solo para la tristeza en comparación con los controles no deprimidos. En la evaluación de seguimiento, clasificamos al grupo de ETS en dos subgrupos: el grupo no remitido y el grupo remitido. Para el primero, los umbrales de reconocimiento más bajos para solo la tristeza se encontraron nuevamente para el segundo, no hubo diferencia significativa. Más importante aún, las personas que mostraban umbrales de reconocimiento más bajos para la tristeza en la evaluación inicial tenían menos probabilidades de mejorar los síntomas depresivos en la evaluación de seguimiento. Estos resultados indican que la alteración de la sensibilidad perceptiva hacia la expresión triste para los individuos con ETS está asociada al estado clínico actual.

Palabras clave: QUEST Depresión subumbral percepción de expresión facial sensibilidad perceptiva umbral de reconocimiento.


Medir las emociones

Expresiones faciales

Las expresiones faciales son configuraciones de diferentes movimientos micromotores (músculos pequeños) en la cara que se utilizan para inferir el estado emocional discreto de una persona (por ejemplo, felicidad, ira). El sistema de codificación de acciones faciales (FACS) de Ekman y Friesen fue el primer enfoque ampliamente utilizado y validado empíricamente para clasificar el estado emocional de una persona a partir de sus expresiones faciales (Ekman, 1992 Ekman & amp Friesen, 1978).

Un ejemplo de expresiones faciales que utilizan los codificadores humanos para clasificar las emociones no básicas de los estudiantes proviene de Craig, D'Mello, Witherspoon y Graesser (2008) y D'Mello y Graesser (2010), quienes tenían dos codificadores capacitados para clasificar las emociones emocionales de los participantes. estados, mientras veían videos de participantes interactuando con AutoTutor, un CBLE diseñado para fomentar la comprensión de los estudiantes de física e informática. Desarrollaron su esquema de codificación reduciendo el conjunto de unidades de acción de FACS (utilizado para codificar expresiones faciales) a aquellas que consideraban relevantes para clasificar las emociones centradas en el alumno, como el aburrimiento, la confusión y la frustración. La confiabilidad entre evaluadores de los codificadores entrenados que utilizan este marco de codificación es buena para los puntos de tiempo seleccionados por los codificadores para las emociones que ocurrieron con suficiente frecuencia (en general κ = 0,49 aburrimiento, κ = 0,44 confusión, κ = 0.59 deleite, κ = 0,58 frustración, κ = 0,37 neutral, κ = 0,31 D’Mello & amp Graesser, 2010). Los puntajes de confiabilidad entre evaluadores de los jueces fueron, sin embargo, mucho más bajos para las evaluaciones de las emociones en puntos fijos preseleccionados (para las emociones que ocurrieron con suficiente frecuencia en general). κ = 0,31 aburrimiento, κ = 0,25 confusión, κ = 0.36 flujo, κ = 0,30 frustración, κ = 0,27 D’Mello & amp Graesser, 2010). Aunque menos que ideales, estos valores kappa son comunes (Baker, D'Mello, Rodrigo, & amp Graesser, 2010 Porayska-Pomsta et al., 2013) y apuntan a la dificultad de clasificar las emociones centradas en el aprendizaje de los participantes, especialmente en los niveles preseleccionados. intervalos en los que se dispone de poca información afectiva. Por esta razón, la mayoría de los sistemas de codificación emocional que utilizan expresiones faciales clasifican solo los rasgos faciales (por ejemplo, el movimiento de las cejas) o las emociones básicas (Calvo & amp D’Mello, 2010 Zeng et al., 2009), o combinaciones de rasgos faciales y vocalizaciones.

Una de las tendencias relativamente nuevas y prometedoras en el uso de expresiones faciales para clasificar las emociones de los alumnos es el desarrollo y uso de programas de software que automatizan el proceso de codificación utilizando tecnologías avanzadas de aprendizaje automático (Grafsgaard, Wiggins, Boyer, Wiebe y amp Lester, 2014 Harley , Bouchet y Azevedo, 2013 Harley, Bouchet, Hussain, Azevedo y Calvo, 2015). Por ejemplo, FaceReader (5.0) es un programa de reconocimiento facial disponible comercialmente que utiliza un modelo de apariencia activa para modelar los rostros de los participantes e identifica sus expresiones faciales. El programa utiliza además una red neuronal artificial, con siete salidas para clasificar los estados emocionales de los alumnos de acuerdo con seis emociones básicas, además de "neutrales". Harley y col. (2012, 2013, 2015) han realizado investigaciones con FaceReader para: (1) examinar las emociones de los estudiantes en diferentes momentos durante la sesión de aprendizaje con MetaTutor (Azevedo et al., 2012 Azevedo et al., 2013) (2) investigan la ocurrencia de estados emocionales concurrentes o "mixtos" y (3) examinan el grado de correspondencia entre expresiones faciales, conductancia de la piel (es decir, actividad electrodérmica ) y autoinformes de estados emocionales, mientras aprenden con MetaTutor alineando y comparando estos métodos.

Aunque los programas de reconocimiento facial automatizados pueden analizar las expresiones faciales mucho más rápido que los codificadores humanos, aún no son tan precisos (Calvo & amp D’Mello, 2010 Terzis, Moridis, & amp Economides, 2010 Zeng et al., 2009). La precisión de los programas de expresión facial automática varía, tanto por la emoción individual como por el programa de software (similar a la variación entre los estudios de codificadores humanos). Un tema importante relacionado con el software de reconocimiento automático de expresiones faciales, especialmente el software comercial, es su evolución continua, que incluye bases de datos de entrenamiento más grandes y la inclusión de datos emocionales más naturalistas (no planteados o inducidos experimentalmente) (Zeng et al., 2009).

Los programas de reconocimiento de expresiones faciales parciales menos sofisticados también se utilizan en la investigación con CBLE, como el sistema de cámara Blue Eyes, que es capaz de detectar rasgos y movimientos faciales específicos (Arroyo et al., 2009 Burleson, 2011 Kapoor, Burleson, & amp Picard , 2007). Estos programas se utilizan de manera diferente a los programas de codificación facial humana o automatizados completamente desarrollados porque no proporcionan etiquetas emocionales discretas. En cambio, los rasgos faciales que proporcionan se combinan con otros datos fisiológicos (p. Ej., Actividad electrodérmica, EDA) y de comportamiento (p. Ej., Postura) para crear conjuntos de rasgos predictivos (p. Ej., Pico de excitación, inclinación hacia adelante, cejas levantadas) que están correlacionados con otras medidas de las emociones, como los instrumentos de autoinforme, para validar su conexión con diferentes emociones o dimensiones emocionales. Los estudios que investigan diferentes métodos de detección de emociones y las conclusiones que podemos sacar de ellos con respecto al valor de los métodos individuales se discuten más adelante.

En resumen, las expresiones faciales tienen numerosas ventajas como método para medir estados emocionales. Por un lado, son los más tradicionales y siguen siendo una de las mejores medidas de estados emocionales en términos de su uso generalizado y confiabilidad (probados con múltiples evaluadores y con otros métodos de emociones) que no tiene parangón con la mayoría de los otros métodos que se han desarrollado más recientemente. (ver Calvo & amp D'Mello, 2010 Zeng et al., 2009). Además, las expresiones faciales se pueden analizar en tiempo real utilizando programas de software, como FaceReader y el Computer Expression Recognition Toolbox (CERT Grafsgaard et al., 2014) o después de que concluya la sesión experimental, utilizando codificadores humanos (Craig et al., 2008). Las opciones para detectar emociones en tiempo real, como el software de reconocimiento facial automático, también hacen que las expresiones faciales sean un canal viable para proporcionar información al CBLE sobre el estado emocional de los alumnos, que a su vez puede utilizarse para proporcionar indicaciones de apoyo emocional (estos entornos en adelante se denominan CBLE de apoyo emocional). Finalmente, y como la mayoría de los métodos discutidos en este capítulo, las medidas de reconocimiento de expresiones faciales son medidas en línea de la emoción que capturan la expresión de una emoción a medida que ocurre y, por lo tanto, mitigan las deficiencias de las medidas de autoinforme fuera de línea (discutidas en detalle a continuación).

Las desventajas de usar expresiones faciales para medir las emociones son que la mayoría de los esquemas de codificación de expresiones faciales se basan en el sistema FACS tradicionalmente utilizado para clasificar solo las seis emociones básicas, y son muy laboriosos si los realizan codificadores humanos capacitados en lugar de software (Calvo & amp D 'Mello, 2010). Los programas de investigación que utilizan expresiones faciales para examinar emociones no básicas (por ejemplo, D'Mello & amp Graesser, 2013 Grafsgaard et al., 2014 Rodrigo & amp Baker, 2011) requieren extensas validaciones de métodos cruzados para conectar configuraciones de expresiones faciales con nuevas etiquetas emocionales ( por ejemplo, compromiso, frustración, aburrimiento). En última instancia, la investigación de la expresión facial es actualmente la más adecuada para examinar las emociones básicas y se realiza de manera más eficiente cuando se utilizan programas de reconocimiento facial automático, que continúan mejorando y acercándose a niveles de precisión de clasificación similares a los codificadores humanos (Calvo & amp D'Mello, 2010 Zeng et al. ., 2009).


Reconocimiento de las expresiones faciales en personas con niveles elevados de síntomas depresivos: un estudio del movimiento ocular

Los estudios anteriores informaron de manera consistente el reconocimiento anormal de las expresiones faciales en la depresión. Sin embargo, todavía no está claro si esta anomalía se debe a una capacidad mejorada o deteriorada para reconocer las expresiones faciales, y qué sistemas cognitivos subyacentes están involucrados. El presente estudio tuvo como objetivo examinar cómo las personas con niveles elevados de síntomas depresivos se diferencian de los controles sobre el reconocimiento de expresiones faciales y evaluar la atención y el procesamiento de la información mediante el seguimiento ocular. Se pidió a cuarenta participantes (18 con síntomas depresivos elevados) que etiquetaran las expresiones faciales que representaban una de las siete emociones. Los resultados mostraron que el grupo de alta depresión, en comparación con el grupo de baja depresión, reconoció las expresiones faciales más rápido y con una precisión comparable. Además, el grupo de depresión alta demostró un mayor sesgo de atención hacia la izquierda, que se ha argumentado que es un indicador de hiperactivación del hemisferio derecho durante el reconocimiento de expresiones faciales.

1. Introducción

La expresión facial es la forma más poderosa, natural y directa de comunicar emociones en la interacción social cotidiana [1]. Los individuos detectan la retroalimentación emocional y se comportan recíprocamente sobre la base de la identificación de las expresiones faciales de los demás, lo que tiene un valor adaptativo importante para los humanos [2]. La depresión, sin embargo, se ha asociado con un esquema negativo con respecto al yo, los eventos externos y las situaciones sugeridas por las teorías cognitivas de la depresión [3, 4]. En particular, se propone que los participantes deprimidos estén atentos a la información negativa y se involucren en una búsqueda continua de retroalimentación negativa durante la interacción social [4]. En consecuencia, generalmente se asume que los individuos deprimidos pueden mostrar patrones anormales en el reconocimiento de la expresión facial.

Numerosos estudios han observado diferencias entre individuos deprimidos y sanos durante el reconocimiento de expresiones faciales. Sin embargo, todavía no está claro si la depresión está asociada con una capacidad mejorada o deteriorada para reconocer las expresiones faciales. Algunos estudios informaron que las personas con síntomas depresivos son más precisos que las personas sanas en el reconocimiento de expresiones faciales tanto negativas como positivas, lo que sugiere una hipervigilancia global de las expresiones faciales emocionales [5, 6], mientras que otros informaron que la depresión está asociada con un déficit específico en el reconocimiento de Expresiones faciales: felicidad [7], tristeza [8, 9], ira [10] o un déficit global en el reconocimiento de emociones faciales tanto positivas como negativas [10-12].

En parte, esta controversia puede atribuirse al hecho de que las tareas utilizadas en esos estudios (por ejemplo, la tarea de búsqueda visual y la tarea de emparejamiento de imágenes) difieren en su capacidad para diferenciar la capacidad de los individuos para reconocer expresiones faciales emocionales. Para la tarea de búsqueda visual, se ha demostrado que la detección de una expresión facial objetivo se ve afectada por el número de distractores, el contexto y las estrategias de búsqueda [13, 14]. Para la tarea de emparejamiento de imágenes, se puede realizar el mismo juicio diferente sobre dos expresiones faciales haciendo coincidir los rasgos faciales sin extraer señales emocionales de las expresiones y, por lo tanto, esta tarea no diferencia la capacidad de reconocer la emoción de las expresiones faciales [7, 15, 16]. Una tarea comparativamente más directa y más sensible es la tarea de etiquetado verbal. A diferencia de las tareas de búsqueda visual y comparación de imágenes, la tarea de etiquetado verbal requiere que los participantes nombren la emoción de cada expresión facial y, por lo tanto, obliga al participante a confiar más en la información emocional [15].

Otra posible razón para los hallazgos inconsistentes puede deberse a la compensación entre el tiempo de respuesta y la precisión de la respuesta. Es importante considerar las demandas competitivas de velocidad y precisión, ya que las personas pueden reconocer las expresiones faciales rápidamente con una mayor cantidad de errores o lentamente con pocos errores. Sin embargo, con solo unas pocas excepciones [5, 6], los estudios anteriores investigaron el tiempo de respuesta sin un informe de la precisión de la respuesta, o viceversa. Para proporcionar evidencia más convincente del reconocimiento de expresiones faciales anormales en individuos deprimidos, se requieren más estudios que utilicen tareas más sensibles, como la tarea de etiquetado verbal, además de comparar tanto el tiempo de respuesta como la precisión de la respuesta durante el reconocimiento de expresiones faciales.

Aunque los estudios previos informaron consistentemente las diferencias entre los grupos deprimidos y de control en el reconocimiento de las expresiones faciales, se sabe poco sobre los sistemas cognitivos subyacentes a estas diferencias. Esta es una pieza clave de la información que falta porque puede ayudar a comprender y explicar las anomalías afectivas y conductuales en la depresión y, por lo tanto, ofrece implicaciones prácticas para el tratamiento.

Algunos estudios recientes aplicaron tecnología de seguimiento ocular que ofrece una medida objetiva, continua y no invasiva de cuándo y dónde miran las personas para investigar los sistemas cognitivos que subyacen al reconocimiento de expresiones faciales. Se ha descubierto que los rasgos faciales, incluidos los ojos, la boca, la nariz y las cejas, proporcionan pistas clave para reconocer las expresiones faciales [17, 18], y los individuos sanos se centran en esas regiones de interés (ROI) para reconocer las expresiones faciales. Además, los individuos sanos muestran movimientos oculares sesgados hacia la izquierda [19], lo que significa que dedicaron más tiempo a ver los estímulos faciales en el hemicampo visual izquierdo. Este sesgo se interpreta como un indicador de la participación del hemisferio derecho en el procesamiento de las expresiones faciales [19]. Se encontró que los individuos con trastorno de ansiedad y esquizofrenia exhibían un tiempo de permanencia reducido en el ROI y, por lo tanto, mostraban trayectorias de exploración irregulares durante la visualización de expresiones faciales [20]. Hasta ahora, no se ha estudiado el patrón de movimiento de los ojos durante el reconocimiento de expresiones faciales en la depresión.

El presente estudio aplicó tecnología de seguimiento ocular para investigar si los individuos con síntomas depresivos elevados se diferencian de aquellos con síntomas depresivos bajos en el reconocimiento de expresiones faciales. Registramos los movimientos oculares continuos, así como la precisión del reconocimiento y el tiempo de respuesta durante una tarea de etiquetado verbal. Los objetivos específicos del presente estudio son (1) examinar si la velocidad de respuesta y la precisión de las expresiones faciales se ven alteradas por la depresión (2) examinar si la depresión tiene efectos específicos de valencia en el reconocimiento facial en términos de impacto selectivo en el reconocimiento de positivo versus negativo expresiones faciales (3) para investigar si la depresión se caracteriza por un patrón de exploración ocular alterado.

2. Método

2.1. Participantes

Los participantes fueron reclutados a través de anuncios en Internet. Un total de 48 estudiantes de pregrado (edad media = 21,55 años, SD = 1,62) participaron en el estudio por créditos de clase o dinero. Los datos de 8 participantes no estaban disponibles debido a la falta de datos debido a problemas con el aparato de seguimiento ocular. De los participantes restantes, 18 participantes (9 mujeres) puntuaron más de 50 en la escala de autoevaluación de la depresión (SDS) (

) y, por tanto, se definieron como el grupo de alta depresión (grupo HD). Los otros 22 participantes (11 mujeres) obtuvieron menos de 50 en la SDS (

) y sirvió como el grupo de baja depresión (grupo LD). Todos los participantes tenían una visión normal o corregida a normal y no informaron antecedentes de psicopatología diagnosticada clínicamente, trastornos del habla o experiencia previa con este estudio.

2.2. Materiales
2.2.1. Escala de depresión de autoevaluación

La escala de autoevaluación de la depresión (SDS) consta de 20 ítems presentados en un formato de opción múltiple de 4 puntos. Los elementos individuales se puntúan entre 1 y 4, y las puntuaciones más altas indican un mayor nivel de síntomas depresivos. La puntuación varía de 20 a 80, con 20 a 49 que indica un rango normal de 50 a 59 para depresión leve de 60 a 69 para depresión moderada de 70 o más para depresión grave [21, 22]. En el estudio actual, las puntuaciones de SDS de las personas con síntomas depresivos elevados variaron de 50 a 59.

2.2.2. Sistema chino de imágenes faciales afectivas (CAFPS)

CAFPS es un conjunto estandarizado y validado de fotografías de expresiones faciales chinas que se ha aplicado en estudios con participantes chinos [23]. Todas las fotografías fueron tomadas con modelos mirando al frente con diferentes tipos de expresiones (neutrales y seis emociones faciales básicas: alegría, sorpresa, disgusto, tristeza, miedo y enojo), son en blanco y negro y se describen mediante intensidad. puntuaciones que van del 1 al 9 (1 = baja intensidad y fácil de reconocer, 9 = alta intensidad y difícil de reconocer). Se seleccionaron 28 fotos de rostros emocionales, cada una de las cuales representaba una de las siete emociones, de CAFPS. El puntaje de intensidad promedio de estas fotos faciales fue 6.60 (SD = 0.18). Ambos géneros estuvieron igualmente representados en cada una de las siete categorías de expresiones faciales. Se seleccionó un conjunto diferente de catorce fotos para las pruebas de práctica. Cada imagen se presentó con un tamaño de imagen de 700 × 600 píxeles a una distancia de visualización de 60 cm.

2.3. Aparato y procedimiento

Los estímulos se presentaron utilizando el paquete de software E-Prime (Psychology Software Tools, Inc Pittsburgh). El inicio de cada ensayo (excepto el primero) fue provocado por la respuesta verbal de los participantes registrada a través de un cuadro de respuesta de voz y, por lo tanto, los ensayos se realizaron a su propio ritmo. Los movimientos oculares se registraron utilizando el Eyelink-II montado en la cabeza (SR Research Ltd., Mississauga), con una resolución de muestreo de 500 Hz y una resolución espacial de 0,2 °. Un movimiento ocular se clasificó como sacádico cuando su distancia excedía los 0,2 ° y la velocidad alcanzaba los 30 ° / s. Una fijación se definió como una mirada consecutiva confinada dentro de un diámetro de ángulos visuales de 1 °, durante al menos 200 ms [18, 20]. Se utilizó una mentonera para inmovilizar la cabeza del participante durante el experimento y para asegurar una distancia de 60 cm entre el centro de la pantalla de la computadora de 17 ′ ′ y los ojos del participante. Se fijó un micrófono conectado con una caja de respuesta de voz a 5 cm delante de la mentonera, a la misma altura.

Antes del experimento, todos los participantes dieron su consentimiento informado de acuerdo con el procedimiento y los requisitos de las Juntas de Revisión Ética Institucional. Luego se les pidió que memorizaran las siete etiquetas verbales de las expresiones faciales (neutral, feliz, sorpresa, disgusto, tristeza, miedo y enojo) y que repitieran las etiquetas tantas veces como fuera posible hasta que pudieran recordar las siete etiquetas sin ningún esfuerzo.

El estudio se llevó a cabo en una habitación tranquila y oscura. Después de una introducción del procedimiento experimental, se equipó a los participantes con el EyelinkII montado en la cabeza y se les indicó que se sentaran en una silla cómoda y apoyaran la barbilla en la mentonera. El experimento comenzó con 14 ensayos de práctica seguidos de la prueba formal. La prueba formal comenzó con una calibración de nueve puntos de la posición de fijación del ojo. Durante cada prueba, primero se presentó una pantalla negra con una cruz en el centro durante 1000 milisegundos para ejecutar una calibración de deriva. A continuación, se presentó una foto de la cara en el centro de la pantalla. Se pidió a los participantes que reconocieran la expresión de cada foto de la cara y la informaran verbalmente de la manera más rápida y precisa posible. La foto permaneció en la pantalla hasta que el informe verbal del participante fue detectado por el cuadro de respuesta de voz, lo que a su vez desencadenó la siguiente prueba. Los movimientos oculares y el tiempo de respuesta se registraron automáticamente. Los informes verbales fueron registrados por el experimentador. Las veintiocho fotos de rostros se presentaron en un orden aleatorio. El experimento duró unos 40 minutos.

2.4. Reducción de datos

La precisión de la respuesta estuvo representada por el porcentaje de respuestas correctas (calculado dividiendo el número de respuestas correctas por el número total de intentos de cada participante en cada condición emocional, que van de 0 a 1). La precisión de la respuesta y el tiempo de respuesta se sometieron a análisis de medidas repetidas. de varianza (ANOVA) con Emoción (feliz, neutral, sorpresa, disgusto, tristeza, miedo, enojo) como factor intra-sujeto y Grupo (el grupo HD y el grupo LD) como factor inter-sujetos.

Para investigar más a fondo cómo los dos grupos diferían en su atención a los rasgos faciales, se definieron cuatro regiones de interés (ROI) para cada foto facial: cejas (izquierda y derecha), ojos (izquierda y derecha), nariz y boca. Las ROI se definieron trazando los bordes y extendiendo aproximadamente el 5% del ancho de la cara más allá de las características utilizando el paquete de software de visualización de datos Eyelink. El tiempo de permanencia en el ROI se calculó sumando la duración de todas las fijaciones contenidas en el ROI, excepto la primera fijación que siempre estuvo ubicada en el centro de la pantalla. Se realizó un análisis de varianza de medidas repetidas (ANOVA) en el tiempo de permanencia con la emoción como factor intra-sujeto y el grupo como factor entre sujetos.

Además, para probar si el grupo de HD prestó más atención al hemicampo visual izquierdo que el grupo LD durante el reconocimiento de expresiones faciales, se calcularon los movimientos oculares asimétricos restando el tiempo de permanencia total en el hemicampo visual derecho del tiempo de permanencia total en el hemicampo visual izquierdo. hemicampo. Los movimientos asimétricos de los ojos se sometieron luego a un análisis de varianza de medidas repetidas (ANOVA) con Emoción y hemicampo visual (izquierda y derecha) como factor intra-sujeto y Grupo como factor entre sujetos.

Para todos los análisis, el nivel alfa se estableció en .05. La corrección de Greenhouse-Geisser se aplicó cuando se violó el supuesto de esfericidad. Se informan los grados de libertad no corregidos, los valores de épsilon y los tamaños del efecto (eta-cuadrado parcial). Emparejado t-se llevaron a cabo pruebas para examinar más a fondo los efectos principales.

3. Resultados

La media y el error estándar de los informes verbales y los movimientos oculares de cada expresión facial del grupo HD y del grupo LD se muestran en las Figuras 1 y 2, respectivamente.


(a)
(B)
(a)
(B) La media y el error estándar de la precisión de la respuesta (es decir, el porcentaje de respuestas correctas) (a) y el tiempo de respuesta (b) en cada una de las siete categorías de expresión facial de los grupos de depresión alta y baja.

(a)
(B)
(a)
(B) La media y el error estándar del tiempo de permanencia en el ROI (a) y el tiempo de permanencia asimétrico (b) en cada una de las siete categorías de expresión facial de los grupos de depresión alta y baja.
3.1. Precisión de respuesta

Hubo un efecto principal significativo de Emotion (

). Hacer un seguimiento tLas pruebas demostraron que, en comparación con la precisión de la respuesta a las expresiones neutrales, la precisión de la respuesta a otras expresiones faciales emocionales fue significativamente menor (sorpresa:

, disgusto: triste:, miedo:, enojado:,) excepto expresiones felices (,). El efecto principal de Grupo y la interacción de Grupo y Emoción no fueron significativos (

3.2. Tiempo de respuesta (RT)

El ANOVA reveló un efecto principal significativo del Grupo (,, parcial) que indica que el grupo HD reconoció las expresiones faciales más rápido que el grupo LD. También hubo un efecto principal significativo de Emoción (,, parcial). Hacer un seguimiento t-Las pruebas mostraron que, en comparación con el RT a la expresión neutra, los participantes respondieron más rápido a la expresión feliz (,), pero más lento a todas las demás expresiones faciales (sorpresa:, disgusto:, triste:, miedo:, enojado: , ). El efecto interactivo de Grupo y Emoción no fue significativo (,, parcial).

3.3. Movimientos oculares
3.3.1. Tiempo de permanencia

El ANOVA indicó un efecto principal significativo del Grupo (,, parcial), el grupo de HD pasó menos tiempo en los ROI que el grupo de LD. También hubo un efecto principal significativo de Emoción (,, parcial). Hacer un seguimiento t-Las pruebas mostraron que, en comparación con el tiempo de permanencia en la expresión neutra, el tiempo de permanencia en las expresiones felices fue significativamente más corto (,), mientras que el tiempo de permanencia en otras expresiones fue significativamente más largo (disgusto:, miedo:,) excepto por la sorpresa, la tristeza y el enojo. , todos , . El efecto interactivo de Grupo y Emoción no fue significativo (,, parcial). También se realizó un ANOVA de medidas repetidas adicional para probar las diferencias de tiempo de permanencia entre

3.3.2. Movimientos asimétricos de los ojos

El ANOVA reveló un efecto principal significativo del Grupo (,, parcial) que indica que el grupo de HD mostró un mayor sesgo hacia la izquierda en las expresiones faciales que el grupo de LD. También hubo un efecto principal significativo de Emoción (,, parcial), mientras que la interacción de Grupo y Emoción no fue significativa (,, parcial). Hacer un seguimiento t-Las pruebas mostraron que, en comparación con la expresión neutra, los participantes mostraron un sesgo hacia la izquierda significativamente mayor en todas las expresiones faciales emocionales (feliz:, sorpresa:, miedo:, ira:, excepto disgusto) y expresiones faciales tristes,).

4. Discusión

Este estudio tuvo como objetivo examinar las diferencias entre individuos con síntomas depresivos altos y bajos en el reconocimiento de expresiones faciales y explorar los sistemas cognitivos subyacentes a esas diferencias. Los principales resultados indican que el grupo de HD respondió mucho más rápido a todas las expresiones faciales que el grupo de LD, mientras se desempeñaba con tanta precisión como el grupo de LD en el reconocimiento de expresiones faciales, lo que sugiere una capacidad mejorada para reconocer las expresiones faciales. Además, este estudio reveló un patrón de movimiento ocular anormal en la depresión. En comparación con el grupo de LD, el grupo de HD se centró menos en el ROI en general y pasó más tiempo viendo el hemicampo visual izquierdo de las expresiones faciales que el hemicampo visual derecho.

Nuestro hallazgo de una capacidad mejorada para reconocer todas las categorías de expresiones faciales en el grupo de EH es consistente con estudios previos que observaron un mejor desempeño en la tarea de reconocimiento de expresiones faciales en individuos disfóricos [6], pacientes con depresión diagnosticada clínicamente [24], así como en pacientes en remisión individuos deprimidos [5] que en los controles. Sin embargo, otros estudios informaron deficiencias específicas o generales en el reconocimiento de la expresión facial en la depresión [10, 25]. Una razón de esta inconsistencia puede ser que las diversas tareas utilizadas en estudios previos involucraban diferentes procesos cognitivos como la atención selectiva y la memoria [13]. Por lo tanto, los déficits observados en esas tareas pueden no caracterizar la capacidad deteriorada para decodificar las expresiones faciales, sino procesos cognitivos potencialmente de orden superior (por ejemplo, atención selectiva y memoria) que se ven afectados por el estado de ánimo negativo [6]. En comparación con el trabajo anterior, este estudio adoptó una tarea más directa y sensible que requiere que los participantes etiqueten verbalmente la expresión facial basándose principalmente en la decodificación emocional de las expresiones faciales y, por lo tanto, puede llevar a una conclusión más sólida sobre el reconocimiento de expresiones faciales anormales en individuos con depresión.

Este estudio también observó patrones anormales de movimientos oculares en el grupo de EH durante el reconocimiento de expresiones faciales. En particular, los individuos con niveles elevados de síntomas depresivos vivieron significativamente menos tiempo que el grupo LD en las regiones de interés (ROI), incluidas las cejas, los ojos, la nariz y la boca. Esto es consistente con nuestros hallazgos de tiempos de respuesta más rápidos a las expresiones faciales en los grupos de HD.

Es importante destacar que este estudio también reveló mayores movimientos oculares sesgados hacia el lado izquierdo en personas con niveles elevados de síntomas depresivos, en comparación con el grupo de LD. Todos los participantes permanecieron más tiempo en la parte de la cara de la izquierda en comparación con el hemicampo visual derecho, sin embargo, las personas con niveles elevados de síntomas depresivos mostraron una preferencia del lado izquierdo aún mayor en todas las categorías de expresiones faciales. This left-side-bias effect has been argued to be an indicator of right hemisphere involvement in the processing of facial expressions [26, 27]. Evidence from EEG consistently reported larger activation in the right hemisphere compared with the left hemishphere during processing of emotional and facial relevant stimuli [28, 29]. Recent fMRI studies further localized the EEG asymmetries to specific areas of prefrontal cortex. In particular, it is confirmed that emotional stimulus processing and trait depression are associated with increased right-lateralized activation in subregions of the the dorsolateral prefrontal cortex (DLPFC) [30, 31]. Therefore, the greater left-side bias found in the HD group indicates hyperactivation in the right hemisphere and hence enhanced sensitivity to facial expressions, which may explain the fast response times without reduced accuracy. It would be interesting for future studies to explore the casual relation of depressive symptoms and this abnormal eye-movement pattern.

Consistent with previous studies [17, 18, 32], our results indicate that all individuals dwelled most on the nose, less on the eyes and the mouth, and least on the eyebrows. This pattern of attention allocation may at least partially be due to the presentation mode: face photos were presented at the screen center with a dark background. Therefore, except for the eyes and mouth which may provide important clues for emotion recognition, the nose was the optimal position to focus upon because it was located at both the face center as well as the screen center. Conversely, the eyebrow area was the last position participants attended to, perhaps because it is the farthest ROI from the vision center.

Finally, no evidence was found for a negative bias in the HD group. This result is somewhat unexpected. According to cognitive and social interactive theories of depression, we predicted that individuals with elevated levels of depressive symptoms would recognize negative facial expressions better (i.e., more accurate and faster) than positive and neutral facial expressions. However, our results indicate that both the HD group and the LD group recognize happy and neutral facial expressions much quicker and more accurately than negative facial expressions. An explanation for this lack of a negative bias may be due to a ceiling effect, as both groups performed significantly better on positive and neutral facial expressions (94%–99% accuracy) than on other facial expressions. However, this cannot explain why the HD group responded quicker than the LD group while maintaining accuracy comparable to the LD group across all categories of facial expressions (including positive and neutral facial expressions). A plausible hypothesis is that the depressive related negative schema of self and others motivate an enhanced emotional processing, and hence lead to a global hypersensitivity to facial expressions as observed in the recognition task. In particular, the negative schema of self and others may activate more avoidant, less tolerant experience and behaviors, as well as higher levels of distress and fear when confronted with others’ facial expression (e.g., [33]). Accordingly, depressed individuals could be more motivated to complete the recognition task by responding faster to face photos in order to shorten the exposure time to facial expressions.

In addition to these interesting findings, there are some limitations to this study. This study recruited undergraduate students with elevated levels of depressive symptoms rather than depressed patients, thus the findings may not generalize to a clinically depressed sample. Furthermore, the picture stimuli we used in this study have somewhat high intensities (mean intensity score is 6.6 on a 9-point scale). Future studies are needed to investigate how dysphoric and depressed individuals recognize ambiguous facial expressions.

In conclusion, this study reveals a relation between depressive symptoms and an enhanced ability to recognize facial expressions. Furthermore, this study identifies an underlying cognitive system that explains the enhanced ability exhibited by the high-depression group: greater leftward attention bias, presumably related to a right hemisphere hyper activation. This study expands previous studies on understanding the relation between visual attention processes and facial expression recognition in depression, which has an important implication for developing an attentional model of depression.

Expresiones de gratitud

Great thanks to Zhao Guang, Lei Wenting, and Zhang Manling for assistance with data collection and entry. The authors would like to thank two anonymous reviewers for their helpful comments on this work. Preparation of this article was supported by the German Research Foundation (DFG) grants GRK 1253/1 and National Key Discipline Foundation of Southwest University (NSKD 06008).

Endnote

  1. Additional repeated measures ANOVA was conducted on dwell time in each ROI with ROI, Emotion as within-subject factor, and Group as between-subject factor. The results indicated a significant main effect of Emotion ( , , partial ) and a significant main effect of ROI ( , , partial ), whereas the main effect of Group and all interactive effects were not significant ( , ). The followup tests of within-subjects contrasts demonstrated that compared to dwell time on nose, dwell time on other regions (eyes, mouth, and brows) was significantly shorter (

Referencias

  1. R. Buck, “Social and emotional functions in facial expression and communication: the readout hypothesis,” Biological Psychology, vol. 38, no. 2-3, pp. 95–115, 1994. View at: Publisher Site | Google Académico
  2. J. S. Carton, E. A. Kessler, and C. L. Pape, “Nonverbal decoding skills and relationship well-being in adults,” Journal of Nonverbal Behavior, vol. 23, no. 1, pp. 91–100, 1999. View at: Publisher Site | Google Académico
  3. A. T. Beck, Cognitive Therapy and the Emotional Disorders, International Universities Press, Oxford, UK, 1976.
  4. T. E. Joiner Jr. and G. I. Metalsky, “A prospective test of an integrative interpersonal theory of depression: a naturalistic study of college roommates,” Revista de personalidad y psicología social, vol. 69, no. 4, pp. 778–788, 1995. View at: Google Scholar
  5. K. L. Harkness, J. A. Jacobson, D. Duong, and M. A. Sabbagh, “Mental state decoding in past major depression: effect of sad versus happy mood induction,” Cognition and Emotion, vol. 24, no. 3, pp. 497–513, 2010. View at: Publisher Site | Google Académico
  6. K. L. Harkness, M. A. Sabbagh, J. A. Jacobson, N. K. Chowdrey, and T. Chen, “Enhanced accuracy of mental state decoding in dysphoric college students,” Cognition and Emotion, vol. 19, no. 7, pp. 999–1025, 2005. View at: Publisher Site | Google Académico
  7. K. L. Yoon, J. Joormann, and I. H. Gotlib, “Judging the intensity of facial expressions of emotion: depression-related biases in the processing of positive affect,” Journal of Abnormal Psychology, vol. 118, no. 1, pp. 223–228, 2009. View at: Publisher Site | Google Académico
  8. M. K. Mandal and B. B. Bhattacharya, “Recognition of facial affect in depression,” Perceptual and Motor Skills, vol. 61, no. 1, pp. 13–14, 1985. View at: Google Scholar
  9. M. K. Mandal and S. Palchoudhury, “Responses to facial expression of emotion in depression,” Informes psicológicos, vol. 56, no. 2, pp. 653–654, 1985. View at: Google Scholar
  10. L. Mendlewicz, P. Linkowski, C. Bazelmans, and P. Philippot, “Decoding emotional facial expressions in depressed and anorexic patients,” Journal of Affective Disorders, vol. 89, no. 1–3, pp. 195–199, 2005. View at: Publisher Site | Google Académico
  11. D. R. Rubinow and R. M. Post, “Impaired recognition of affect in facial expression in depressed patients,” Psiquiatría biológica, vol. 31, no. 9, pp. 947–953, 1992. View at: Publisher Site | Google Académico
  12. S. A. Surguladze, A. W. Young, C. Senior, G. Brébion, M. J. Travis, and M. L. Phillips, “Recognition accuracy and response bias to happy and sad facial expressions in patients with major depression,” Neuropsicologia, vol. 18, no. 2, pp. 212–218, 2004. View at: Publisher Site | Google Académico
  13. A. Frischen, J. D. Eastwood, and D. Smilek, “Visual search for faces with emotional expressions,” Boletín psicológico, vol. 134, no. 5, pp. 662–676, 2008. View at: Publisher Site | Google Académico
  14. G. Horstmann, S. I. Becker, S. Bergmann, and L. Burghaus, “A reversal of the search asymmetry favouring negative schematic faces,” Visual Cognition, vol. 18, no. 7, pp. 981–1016, 2010. View at: Publisher Site | Google Académico
  15. T. E. Feinberg, A. Rifkin, C. Schaffer, and E. Walker, “Facial discrimination and emotional recognition in schizophrenia and affective disorders,” Archivos de psiquiatría general, vol. 43, no. 3, pp. 276–279, 1986. View at: Google Scholar
  16. H. S. Asthana, M. K. Mandal, H. Khurana, and S. Haque-Nizamie, “Visuospatial and affect recognition deficit in depression,” Journal of Affective Disorders, vol. 48, no. 1, pp. 57–62, 1998. View at: Google Scholar
  17. D. Lundqvist, F. Esteves, and A. Öhman, “The face of wrath: the role of features and configurations in conveying social treat,” Cognition and Emotion, vol. 18, no. 2, pp. 161–182, 2004. View at: Publisher Site | Google Académico
  18. T. A. Russell, M. J. Green, I. Simpson, and M. Coltheart, “Remediation of facial emotion perception in schizophrenia: concomitant changes in visual attention,” Schizophrenia Research, vol. 103, no. 1–3, pp. 248–256, 2008. View at: Publisher Site | Google Académico
  19. K. Guo, K. Meints, C. Hall, S. Hall, and D. Mills, “Left gaze bias in humans, rhesus monkeys and domestic dogs,” Animal Cognition, vol. 12, no. 3, pp. 409–418, 2009. View at: Publisher Site | Google Académico
  20. K. Horley, L. M. Williams, C. Gonsalvez, and E. Gordon, “Face to face: visual scanpath evidence for abnormal processing of facial expressions in social phobia,” Investigación en psiquiatría, vol. 127, no. 1-2, pp. 43–53, 2004. View at: Publisher Site | Google Académico
  21. W. W. K. Zung, “A self-rating depression scale,” Archivos de psiquiatría general, vol. 12, no. 1, pp. 63–70, 1965. View at: Google Scholar
  22. W. W. K. Zung, W. E. Broadhead, and M. E. Roth, “Prevalence of depressive symptoms in primary care,” Journal of Family Practice, vol. 37, no. 4, pp. 337–344, 1993. View at: Google Scholar
  23. Y. J. Luo, W. B. Luo, W. F. Feng, W. Q. He, and N. Y. Wang, “Three stages of facial expression processing: ERP study with rapid serial visual presentation,” NeuroImage, vol. 49, no. 2, pp. 1857–1867, 2010. View at: Publisher Site | Google Académico
  24. W. Gaebel and W. Wolwer, “Facial expression and emotional face recognition in schizophrenia and depression,” Archivos europeos de psiquiatría y neurociencia clínica, vol. 242, no. 1, pp. 46–52, 1992. View at: Publisher Site | Google Académico
  25. T. Suslow, K. Junghanns, and V. Arolt, “Detection of facial expressions of emotions in depression,” Perceptual and Motor Skills, vol. 92, no. 3, pp. 857–868, 2001. View at: Google Scholar
  26. B. Rossion, C. A. Joyce, G. W. Cottrell, and M. J. Tarr, “Early lateralization and orientation tuning for face, word, and object processing in the visual cortex,” NeuroImage, vol. 20, no. 3, pp. 1609–1624, 2003. View at: Publisher Site | Google Académico
  27. B. Rossion, C. Schiltz, and M. Crommelinck, “The functionally defined right occipital and fusiform “face areas” discriminate novel from visually familiar faces,” NeuroImage, vol. 19, no. 3, pp. 877–883, 2003. View at: Publisher Site | Google Académico
  28. D. C. Hay, “Asymmetries in face processing: evidence for a right hemisphere perceptual advantage,” Quarterly Journal of Experimental Psychology Section A, vol. 33, no. 3, pp. 267–274, 1981. View at: Google Scholar
  29. R. Le Grand, C. J. Mondloch, D. Maurer, and H. P. Brent, “Expert face processing requires visual input to the right hemisphere during infancy,” Neurociencia de la naturaleza, vol. 6, no. 10, pp. 1108–1112, 2003. View at: Publisher Site | Google Académico
  30. A. S. Engels, W. Heller, J. M. Spielberg et al., “Co-occurring anxiety influences patterns of brain activity in depression,” Cognitive, Affective & Behavioral Neuroscience, vol. 10, no. 1, pp. 141–156, 2010. View at: Publisher Site | Google Académico
  31. J. D. Herrington, W. Heller, A. Mohanty et al., “Localization of asymmetric brain function in emotion and depression,” Psicofisiologia, vol. 47, no. 3, pp. 442–454, 2010. View at: Publisher Site | Google Académico
  32. J. H. W. Hsiao and G. Cottrell, “Two fixations suffice in face recognition,” ciencia psicológica, vol. 19, no. 10, pp. 998–1006, 2008. View at: Publisher Site | Google Académico
  33. S. M. Persad and J. Polivy, “Differences between depressed and nondepressed individuals in the recognition of and response to facial emotional cues,” Journal of Abnormal Psychology, vol. 102, no. 3, pp. 358–368, 1993. View at: Publisher Site | Google Académico

Derechos de autor

Copyright © 2012 Lingdan Wu et al. Este es un artículo de acceso abierto distribuido bajo la licencia de atribución de Creative Commons, que permite el uso, distribución y reproducción sin restricciones en cualquier medio, siempre que el trabajo original se cite correctamente.


Abstracto

Faces convey a wealth of social signals. A dominant view in face-perception research has been that the recognition of facial identity and facial expression involves separable visual pathways at the functional and neural levels, and data from experimental, neuropsychological, functional imaging and cell-recording studies are commonly interpreted within this framework. However, the existing evidence supports this model less strongly than is often assumed. Alongside this two-pathway framework, other possible models of facial identity and expression recognition, including one that has emerged from principal component analysis techniques, should be considered.


Contenido

A facial expression results from one or more motions or positions of the muscles of the face. They are closely associated with our emotions. Charles Darwin noted in his book The Expression of the Emotions in Man and Animals:

. the young and the old of widely different races, both with man and animals, express the same state of mind by the same movements.

In the mid-20th century most anthropologists believed that facial expressions were entirely learned and could therefore differ among cultures, but studies (eventually with people of the Papua New Guinea highlands who had not been in contact with the outside world) have supported Darwin's belief to a large degree, particularly for expressions of anger, sadness, fear, surprise, disgust, contempt and happiness. Research has also shown that consciously making expressions can induce the corresponding emotion.

The people of New Guinea called South Fore were chosen as subjects and within the South Fore the most isolated members of the group were chosen to participate. The study consisted of 189 adults, 130 children as well as twenty three not so isolated South Fore people. This element of non-isolated people with exoposure to mainstream culture had to be included in order to produce accurate findings. Details of the study include participants listening to a story that was suppose to be describing one particular emotion, and were subsequently shown three pictures of facial expressions while the children were shown two pictures of facial expressions that were suppose to be used to match facial expression with the emotion in the story. Certain facial expressions correspond to particular emotions, reagrdless of what cultural background a person belongs to, and regardless of whether or not the culture has been isolated or exposed to mainstream culture is what the hypothesis supported. Prior research that motivated this hypothesis was conducted by Eckman and Friesen,and consisted of testing whether or not facial expressions represent specific emotions. Results include children statistically being able to more accurately identify the facial expressions to the emotions. While both the isolated and non-isolated adults of South Fore identified the description of behavior with the facial expression with the same accuracy. Problems associated with the study include both fear and surprise constantly being misidentified by subjects.


What can we do to help kids read faces?Evidence-based tips

If face-reading competence depends on learning, how can we help children become expert interpreters?

Research suggests that parents can have an important impact on the development of emotion recognition in young children. Here are some evidence-based ideas.

1. Be a "mind-minded" parent -- a caregiver who engages kids in insightful talk about emotions.

Studies suggest that children develop better "mind-reading" skills when we expose them to accurate, sensitive talk about thoughts and feelings. In particular, kids develop better emotion-reading skills when their parents help them find appropriate labels for the emotions the observe. Parents can also help by discussing the causes and consequences of specific emotions (Castro et al 2015).

2. Ask kids to consider the overall situation and context, and use that information to make sense of facial expressions.

We shouldn't expect kids -- especially young children -- to rely on facial cues alone. Young children can use their understanding of a situation to help them make sense of facial expressions (Theurel et al 2016). For example, if they see someone drop his ice cream cone, they can imagine how they would feel if this happened to them. 

3. Talk with children not only about facial expressions, but also about other forms of body language.

Children are sensitive to much more than a person's facial expressions. They also notice tone of voice, body posture, and gestures.  Whether you are reading a story together, or observing someone in real life, help kids make connections between different kinds of nonverbal cues.

4. For extra practice, try playing emotion identification games

Researchers have developed training programs that ask kids to practice categorizing the emotions depicted by facial expressions (Grinspan et al 2003 Hubble et al 2015).

For example, in one study, researchers gave typically-developing elementary school students training in the identification and self-production of facial cues. After only 6 half-hour sessions, children improved their ability to read emotions compared with controls (Grinspan et al 2003). 

Can we apply the same principles at home? One way is to assemble a collection of photographs, and use them to create "emotion cards."

Alternatively, you can buy cards especially made for the purpose. For example, Picture by Picture sells a set of 40 cards depicting ten different emotions modeled by a diverse range of faces. You can check the price on Amazon here. (Note: Parenting Science will receive a small commission from Amazon for purchases made through this link.)

What can you do with your cards? Try these games.

Imitating faces and guessing emotions

Facial mimicry isn't just an exercise in theater. Research suggests that it also helps us identify emotions and experience empathy (Sato et al 2013). So try this:  Shuffle the cards and put them face down. The first player picks a card, keeps it to herself, and then mimics the expression on the card. The other player(s) have to guess the correct emotion. 

Matching faces to situations

In this game, you'll need an extra set of cards -- each depicting an emotion-evoking situation. Then players will attempt to match each facial expression card with the most appropriate situation.

The images for your situation cards can come from a number of sources. You can draw your own, or cut pictures out of magazines. Some situation cards may evoke multiple emotions.

Creative scenarios: Why that face?

In this simple game, players take turns picking a card from the deck and inventing a reason for the facial expression displayed. For example, if the player picks a card with a woman looking surprised, you might say, "She just found a dinosaur in her bathtub."

Collaborative, improvisational storytelling: A game inspired by a child psychology tool

The MacArthur Story Stem Battery is a tool psychologists use to get young children to discuss and imagine certain themes and concepts -- like separations from loved ones, conflict with peers, and moral dilemmas. The psychologist sets up a hypothetical situation, and encourages the child to flesh out the details of what happens next.

In this cooperative game, players can decide together on the basic scenario. It can be fanciful or outlandish, but it should involve characters with realistic emotional responses. Then players create a narrative together, taking turns and building on each others ideas.

To begin, the first player picks an emotion card, and starts the narrative. He can take the story into any direction he likes, but he must incorporate the emotion depicted on the card -- i.e., events in the story must reflect the appropriate emotion. The next player picks a card and continues the narrative, and so on. Players continue to take turns until they have used all the cards or  reached a satisfying conclusion.

More reading

For more information about the influence of parenting on a child's emotion recognition abilities, see "The case for teaching empathy." For helpful advice about fostering empathy, see these evidence-based tips.

Copyright © 2006-2021 by Gwen Dewar, Ph.D. all rights reserved.
For educational purposes only. If you suspect you have a medical problem, please see a physician.

Aguert M, Laval V, Lacroix A, Gil S, and Le Bigot L. 2013. Inferring emotions from speech prosody: not so easy at age five. PLoS One. 8(12):e83657. 

Aviezer H, Trope Y, and Todorov A. 2012. Body cues, not facial expressions, discriminate between intense positive and negative emotions. Science. 338(6111):1225-9.

Castro VL, Halberstadt AG, Lozada FT, Craig AB. 2015. Parents' Emotion-Related Beliefs, Behaviors, and Skills Predict Children's Recognition of Emotion. Infant Child Dev.24(1):1-22.

Chronaki G, Garner M, Hadwin JA, Thompson MJ, Chin CY, Sonuga-Barke EJ. 2015a. Emotion-recognition abilities and behavior problem dimensions in preschoolers: evidence for a specific role for childhood hyperactivity. Child Neuropsychol.  21(1):25-40.

Chronaki G, Hadwin JA, Garner M, Maurage P, Sonuga-Barke EJ. 2015b. The development of emotion recognition from facial expressions and non-linguistic vocalizations during childhood. Br J Dev Psychol. 33(2):218-36.

Crivelli C, Jarillo S, Russell JA, Fernández-Dols JM. 2016. Reading emotions from faces in two indigenous societies. J Exp Psychol Gen. 145(7):830-43.

Crivelli C, Russell JA, Jarillo S, Fernández-Dols JM. 2017. Recognizing spontaneous facial expressions of emotion in a small-scale society of Papua New Guinea. Emotion.  17(2):337-347.doi: 

Declerck CH, Bogaert S. 2008. Social value orientation: related to empathy and the ability to read the mind in the eyes. J Soc Psychol. 148(6):711-26.

Ekman P. 1973. Cross-cultural studies of facial expression. In P. Ekman (ed): Darwin and facial expression: A century of research in review. Nueva York: Academic Press.

Gao X and Maurer D. 2009. Influence of intensity on children's sensitivity to happy, sad, and fearful facial expressions. J Exp Child Psychol. 102(4):503-21.

Gao X and Maurer D. 2010. A happy story: Developmental changes in children's sensitivity to facial expressions of varying intensities. J Exp Child Psychol. 107(2):67-86.

Goodfellow S and Nowicki S. 2009. Social adjustment, academic adjustment, and the ability to identify emotion in facial expressions of 7-year-old children. J Genet Psychol. 170(3):234-43.

Grinspan D, Hemphill A, and Nowicki S Jr. 2003. Improving the ability of elementary school-age children to identify emotion in facial expression. J Genet Psychol. 164(1):88-100.

Hubble K, Bowen KL, Moore SC, van Goozen SH. 2015. Improving Negative Emotion Recognition in Young Offenders Reduces Subsequent Crime. PLoS One. 10(6):e0132035.

Kang K, Anthoney L, Mitchell P. 2017. Seven- to 11-Year-Olds' Developing Ability to Recognize Natural Facial Expressions of Basic Emotions. Perception. 46(9):1077-1089.

Leppänen JM and Hietanen JK. 2001. Emotion recognition and social adjustment in school-aged girls and boys. Scand J Psychol. 42(5):429-35.

Mancini G, Agnoli S, Baldaro B, Bitti PE, Surcinelli P. 2013. Facial expressions of emotions: recognition accuracy and affective reactions during late childhood. J Psychol. 147(6):599-617.

Naruse S, Hashimoto T, Mori K, Tsuda Y, Takahara M, and Kagami S. 2013. Developmental changes in facial expression recognition in Japanese school-age children. J Med Invest. 60(1-2):114-20.

Paulmann S and Uskul AK 2014. Cross-cultural emotional prosody recognition: Evidence from Chinese and British listeners. Cogn Emot. 28(2):230-44.
Sato W, Fujimura T, Kochiyama T, and Suzuki N. 2013. Relationships among facial mimicry, emotional experience, and emotion recognition. PLoS One. 8(3):e57889.

Sette S, Baumgartner E, Laghi F, Coplan RJ. 2016. The role of emotion knowledge in the links between shyness and children's socio-emotional functioning at preschool. Br J Dev Psychol. 34(4):471-488. 

Theurel A, Witt A, Malsert J, Lejeune F, Fiorentini C, Barisnikov K, Gentaz E. 2016. The integration of visual context information in facial emotion recognition in 5- to 15-year-olds. J Exp Child Psychol. 150:252-271.

Wang L, Chen W, Li H. 2017. Use of 3D faces facilitates facial expression recognition in children. Sci Rep. 7:45464

Content last modified 2/2018

Image of man making many faces by istock

Image of mother in fancy sari with child by  Sundaram Ramaswamy / flickr


Ver el vídeo: Las EXPRESIONES faciales de las 7 EMOCIONES básicas universales BASE CIENTÍFICA (Agosto 2022).