プレスリリース
‐高速度カメラを用いた分析によって初めて明らかに‐
(株)ATR人間情報通信研究所
(株)ATR知能映像通信研究所
平成12年3月15日
(株)ATR知能映像通信研究所
平成12年3月15日
(実験の手続き) 実験は、以下のように3つのセッションに分けて、トレーニング(セッション1)、自発的な表情表出 (セッション2)、意図的な表情表出 (セッション3)の順番で行いました。 セッション1: トレーニング 被験者に実験環境に慣れてもらいまた自然な表情が出易いように、ウォーム・アップに実験者の指示にもとづいてEkman & Friesen (1978)の FACS (Facial Action Coding System) マニュアルに基づいた表情の筋肉を動かすフェイシャル・エクササイズを行いました。 セッション2: 自発的な表情表出 被験者にさまざまな感情に対応した自然な表情を自発的に表出させるために、Gross & Levenson (1995) によって標準化された喜び、驚き、怒り、悲しみ、嫌悪、恐れの6つの情動に対する情動喚起映像(ビデオ映像)を採用し、これらの映像が提示された時の被験者の表情表出の模様を撮影しました。 セッション3: 意図的な表情表出 このセッションでは被験者に、Ekman & Friesen (1978)の FACS (Facial Action Coding System)のマニュアルが定めるアクション・ユニットの組み合わせとして定義される表情をスムースに表出できるように訓練した後、リラックスした顔(ニュートラル)から基本6表情(喜び、驚き、悲しみ、恐れ、嫌悪、怒り)の顔に、そしてまた再びニュートラル顔に戻るという、意図的な表情表出の過程を撮影しました。 (分析の方法) セッション2、3の表情表出過程を高速度カメラによって録画した動画像の各フレーム画像から、目視によって特徴点を決定することにより特徴点位置のトラッキング(追跡)を行いました。非熟練者でも簡単にトラッキングできるようにGUIベースのトラッキングツールを作成して利用しています。本実験では、追跡する特徴点として左右眉輪郭部4点、左右目輪郭部4点、鼻輪郭部5点、唇輪郭部6点、そして顎部1点、の合計28点を選んでいます。 |
|
|
(分析の結果) 自発的な表情表出と意図的な表情表出の過程を比較した一例として、 同じ被験者による喜びの表情表出における特徴点追跡の結果を紹介します。 2つの表情表出条件を比較すると、顔表情の変化は各器官ごとに微妙に異なることがわかります。 目と唇端の動作は類似していますが、上唇の動作は微妙に異なっています。 自発的表出条件では唇端と上唇の動作がほぼ同時であるのに対して、 意図的表出条件では唇端と上唇の動作に時間差があることがわかりました。 |
|||||
|
|
||||
(考察) 本研究は、 自発的な表情表出と意図的な表情表出とにおける顔パターンの動的な特性を高速度カメラを使って定量的に計測したおそらく初めて報告だと思われます。 一連の実験結果から、両者の類似点および相違点が明らかになりました。 また250フレーム/秒という高速度カメラを用いることによって、これまで通常のカメラ(30フレーム/秒) では捕らえられなかった顔パターンの非線型な時間変化を捕らえることができました。近年、 モーフィングという画像合成技術を用いて顔表情の時間的変化を統制した動画像を生成することができるようになり、 これを実験用刺激として用いることで、 人間による顔表情の認知と顔画像の動的な特徴との関係を探る研究が進展しています。 しかし、実際の表情表出時に顔の部位がそれぞれどのような動的特性をもって変化しているのかが明らかではなかったため、 これまでの研究では、顔表情の変化は各器官が同時に、しかも時間とともに線形に変化すると仮定していました。 本研究で得られる表情表出時の顔の動的特性に関する知見は、 このように顔表情の認知メカニズムを探る研究におけるパラメータの精緻化に役立つものと思われます。 また、コンピュータグラフィックスを用いて、人間にとって違和感のない自然な顔表情を生成する技術の進展にも有用な知見をもたらすものと期待されます。 |
※ATR人間情報通信研究所とATR知能映像通信研究所は2001年に研究プロジェクトを終了しております。