微表情

フラッシュのように一瞬で表れては消え去る微妙な表情、微表情。このブログでは、微表情、表情、顔を始めとした非言語コミュニケーションの研究や実例から「空気を読む」を科学します、「空気」に色をつけていきます。

感情認識AIのさらなる向上に必要なこと

 

私はいくつかの感情認識AI(本文でいう感情認識AIとは表情を認識するAIに限った話です)を自分の表情を使って体験してみたり、実際に弊社が所有する様々な表情データを読みとらせてみたりして、その向き・不向きやいかにして精度の向上を目指すか、どこから使い手である人間の関与や解釈が必要となるかを日々考えています。

 

現時点で、各メーカーから販売されている感情認識AIが、私の知る限り共通して出来ることは、「表情の変化から感情を推測する。」ということです。表情筋をどれほど細かくとらえることが出来るか、微表情を検知することができるか否か、どの程度顔の角度や照度に影響を受けるかなど各メーカーのアプリによって得意・不得意があります。

 

各メーカーのアプリが共通して出来ないことは、感情の原因を推測することと表情筋の動きを感情と会話のシグナルとに分けることです。感情の原因の推測についてはどこかで書いたと思うので、今回は会話のシグナルについて書きたいと思います。会話のシグナルとは、簡単に言えば、会話中に見られる感情以外の顔の動きのことです。

 

例えば、私たちは相手の会話が理解できないときなど眉をひそめると思います。これはレギュレーターと言って、会話の主導権を交代させる機能を持つ会話のシグナルの一つです。会話中の眉の引き下がりを感情認識AIに読みとらせると、怒り感情に自動的に分類します。また私たちは思案しているとき、唇に力を入れたり、下唇を引き上げたりします。これも現在のAIは、怒りや悲しみ感情と自動的に分類します。

 

つまり、感情認識AIで表情の変化を(各メーカーによりますが、多くはデフォルトのままで)自動検出させると、会話のシグナルも感情に自動変換されるのです。このことの理解はとても大切だと思います。

 

例えば、接客を受けているお客様の表情をAIに読みとらせ、感情と購入との関係を計測しようとするとします。先の理解が浅く、AIの検出結果だけを見ると次のようなわけのわからない結論に至る恐れがあります。

 

「サービス購入時に怒り感情を抱くお客様は、サービスを購入する傾向にある。」

 

この場合の正しい解釈は、

 

「サービス購入時に思案するお客様は、サービスを購入する傾向にある。」

 

でしょう。

 

サービスを買うか・買わないか迷ったそのタイミングで、店員さんから耳寄りな情報を聞く、お客様自身がお得な情報を思い出す、それが後押しとなって購入につながった、そんなところでしょう。

 

AIがその内部で何をやってくれているのかについての正しい理解がなければ、AIを効果的に使いこなすことは出来ません。例えるならば、統計学の基礎知識なしに統計ソフトを使って記述統計や推測統計をしてしまうようなものです。

 

感情認識AIの注目が高まり、その利用可能性に期待されることが大きくなればなるほど、感情の機能や表情の意味について学びを深めることが大切だと思います。

 

 

清水建二