top of page

Hasegawa & Unuma (2010)

Hasegawa, Unuma, & Kellman (2013)

視覚的特徴の選択的統合と表情の知覚

 わたしたちは,顔の視覚的情報から即座にその人を同定したり,表情を知覚します。視覚系は,顔面の目や口などの要素的特徴を統合して全体としての顔や表情の知覚を可能にしています。われわれの最近の研究は,人間が顔の特徴を選択的に統合し,さらにそれらの空間的関係をもとに表情を知覚していることを明らかにしました。また,怒りや悲しみなど,知覚される表情によって各特徴の重要度も変化することが示されています。

​→さらに読む

​:解説論文(鵜沼・長谷川, 2009)

Facial features and perception of facial expressions

 

We perceive emotional expressions directly from facial information. Our recent study revealed that facial features, such as opened mouth or slanted eyebrows, are selectively integrated, and that spatial relationships of these features, i.e., spatial distances among them, determine the perceived expressions. Our findings also indicate that the salience or weight of each feature varies with the emotion perceived by observers.

Recent Article:

Hasegawa, H., & Unuma, H. (2010). Facial features in perceived intensity of schematic facial expressions. Perceptual and Motor Skills, 110, 1, 129149.  PubMed

Hasegawa, H., Unuma, H., & Kellman, P. J. (2013). Perceptual learning of facial  expressions. Journal of Vision, 13(9), 254. Abstract  Poster(pdf)

Unuma, H., Hasegawa, H., Kellman, P. J. (2016). Perceptual learning technology improves the mapping of ambiguous facial expressions to emotional category words, 31st. International Congress of Psychology, International Journal of Psychology, Volume 51, Issue S1, 1024.  Abstract


 

bottom of page