読者です 読者をやめる 読者になる 読者になる

微表情

フラッシュのように一瞬で表れては消え去る微妙な表情、微表情。このブログでは、微表情、表情、顔を始めとした非言語コミュニケーションの研究や実例から「空気を読む」を科学します、「空気」に色をつけていきます。

利己的なウソと利他的なウソをつくときの子どもの表情

教育

 

お子さんを持つ親御さんなら初めて体験するショックかも知れないこと、それは、

 

あれ?この子、今、ウソついた。。。

 

本日は、そんな子どものつくウソと表情との関係についてご紹介したいと思います。

 

様々な研究によれば、子どもは2歳くらいからウソをつくようになると言われています。私たち大人は子どものウソを簡単に見抜くことが出来るのでしょうか?答えは、YesでありNoでもあります。確かに幼児のつくウソは簡単に見抜くことが出来ますが、6歳を超えるあたりからウソが巧みになり、大人でもウソかホントかを見分けることが出来なくなります。

 

それは、自分は知っていることで他人は知らないことが何なのかを認識する能力と、隠しておきたい情報―言葉にせよ表情にせよ―を表に出さないようにする能力が向上してくるからだと言われます。

 

もちろんこの能力は自分勝手なウソを巧みにつくためにも必要ですが、同時に他者を傷つけないウソをつくためにも必要な能力です。

 

そうしたウソと子どもの表情との関係に焦点を当てた研究があります。この自分勝手なウソ=利己的なウソと他者を傷つけないウソ=利他的なウソをつくときの子どもの様子にはどんな違いが生じるのでしょうか。

 

6歳から11歳の子どもを対象にこんな実験が実施されました。

 

子どもたちは、利己的なウソグループと利他的なウソグループにランダムに分けられます。グループ別の成り行きは次のようなものとなりました。

 

利己的なウソグループに分けられた子どもたちは、研究者に「今からプレゼントをあげるケド、まだ中身は見ないでね。」と言われ、目の前にプレゼントがおかれます。しかし、研究者が子どもを見ていないスキに子どもの全員がプレゼントの中身をのぞき見してしまいます。研究者に「プレゼントの中身は見た?」と聞かれ、子ども全員が「見ていない」とウソをつきました。

 

利他的なウソグループに分けられた子どもたちは、研究者に「今から素敵なプレゼントをあげるね。」と言われ、石鹸をプレゼントされます。石鹸が子どもにとって嬉しくないプレゼンであることは事前調査で確認済みです。石鹸をプレゼントされた子ども全員が「嬉しい。ありがとう」とウソをつきました。

 

利己的なウソと利他的なウソをついているときの子どもたちの表情が、CERTという自動表情分析ソフトによって計測されました。計測の結果は以下の通りです。

 

①子どもたちは、利己的なウソに比べ利他的なウソをついているときの方が、笑顔だった。

➡利己的なウソで笑顔はまずいですよね。ウソがばれてしまいます。ちなみに、利己的なウソをついているときに生じてしまう笑顔は、騙す喜びと言います。利他的なウソで笑顔はOKです。相手を思いやるための作り笑顔を学習していると推測されます。

 

②女の子は、男の子に比べ、利他的なウソをつくとき、笑顔が多く、軽蔑が少ない。

➡女の子の方が、ウソが上手い!と言いますか、感情コントロールが巧みだということだと推測されます。

 

③男の子は、利己的なウソをつくときと比べ、利他的なウソをつくときの方が、軽蔑が多い。

➡石鹸をみて「なんだこんなもの」という本音が表情に表われてしまったのでしょう。

 

小さなお子さんを持つ親御さんは、利他的なウソは上手くつけるように、利己的なウソは下手な子に育てたいな~なんて思われるかもしれませんが、これの度が過ぎれば、前者はゴマすり人間化しますし、後者は正直すぎて守るべきときに自分の利を守れなくなってしまいます。

 

幼児・子ども教育という観点から考えると、ウソの見抜き方講座ではなく、ウソのつきかた講座なんてものが必要なのかも知れません。

 

ちなみに、子どもはウソのつきかたをどこで学ぶか知っていますか?お友達から学ぶこともありますが、2歳からウソをつくようになる、6歳までにウソが巧みになる…この事実からお気づきになられるかも知れませんが、この時期、子どもと多くの時間を過ごすのは親です。そう、親から良いウソも悪いウソも学ぶのです。

 

教訓

子どものふりみて我がふりなおせ。

 

おまけ

私が懇意にさせて頂いている知人の方から興味深い動画を教えて頂きました。この動画は、本日ご紹介した研究の研究者によるプレゼンで子どものウソについて紹介してくれています。本日ご紹介した研究とは異なるものですが、子どものウソは〇〇でわかるようになった、という興味深い手法を紹介しています。これは微表情にも通じる!?子どもウソに限らず…などいろいろと示唆に富む内容です。

 

 

 

清水建二

参考文献

Zanette, S., Gao, X., Brunet, M., Barlett, M. S., & Lee, K. (2016). Automated decoding of facial expressions reveals marked differences in children when telling antisocial versus prosocial lies. Journal of Experimental Child Psychology, 150, 165-179. http://dx.doi.org/10.1016/j.jecp.2016.05.007

犬は私たちの表情を読んでいるのか?

動物

 

犬の飼い主であったり、犬と触れ合う機会が多ければ多いほど、「犬にも感情があるのね」とか「犬の表情も色々だな」なんて思われると思います。そして、犬と意思疎通が出来ている瞬間を感じることがあると思います。

 

意思疎通ということは、犬も私たちの表情を読んだり、感情を認識出来ているハズ、ということで、犬が人間の感情を本当に認識出来ているのかについて実験がなされています。

 

f:id:micro-expressions:20150609125854j:plain

うちで飼っている黒パグ。彼女の目に映る私の表情はいかに!? 

 

実験参加(実験参加ではない!)の犬に、犬もしくは人間のポジティブ・ネガティブな二枚一セットの表情画像を提示します。また、その表情画像が提示されるとき、その表情に一致する声、不一致の声、中立的な声が流されます。

 

つまり、

 

  1. 怒っている人間の表情画像と人間の怒鳴り声(表情―声一致)
  2. 怒っている人間の表情画像と人間の笑い声(表情―声不一致)
  3. 笑顔の人間の表情画像と人間の笑い声(表情―声一致)
  4. 笑顔の人間の表情画像と人間の怒鳴り声(表情―声不一致)
  5. 怒っている人間の表情画像と人間の中立的な声(中立)
  6. 笑顔の人間の表情画像と人間の中立的な声(中立)

 

(犬バージョンの具体例は省略します)

 

こうした様々な表情画像および音声に実験参加犬がどのような反応を示すか観察されました。具体的にはそうした音声×表情画像に犬がどのくらい視線を向けているかが計測されました。

 

実験の結果、わかったことは次の通りです。

 

①実験参加犬は、表情画像がポジティブだろうとネガティブだろうと、声が中立の場合、それぞれの表情に視線を向けている時間に変わりはない。

②表情と声が不一致の場合より、一致している場合の方を好み、一致している表情画像に視線をより長く向ける。

③人間の表情画像より犬の表情画像に視線を長く向ける。

 

①②の結果から、犬が表情から感情を読んでいるというよりは、表情と声のセットで感情を読んでいることがわかります。このことから、犬をしつけるときは、表情だけ怖い顔をするのではなく、同時に怖い声を出して叱る、犬を褒めるときは、笑顔だけでなく、声の調子も合わせて話しかける、というのが効果的だといえそうです。

 

③は、異種より同種を好むということでしょう。

 

やっぱり、犬も私たちを読んでいるのですね♪

 

 

清水建二

参考文献

Albuquerque N, Guo K, Wilkinson A, Savalli C, Otta E, Mills D. Dogs recognize dog and human emotions. Biol. Lett., 2016 DOI: 10.1098/rsbl.2015.0883

リテールテックJAPAN 2017 & SECURITY SHOW 2017参加レポート第二弾―顔認識アプリの可能性

テクノロジー

 

リテールテックJAPAN 2017 及び SECURITY SHOW 2017参加レポート第二弾です。本日は表情ではなく、顔認識アプリのご紹介をしようと思います。

 

ちなみに表情とは、広義では顔の筋肉の動きのことで、狭義では感情に関わる顔の筋肉の動きのことです。本日ご紹介する顔認識とは、顔の形状や質感、色から年齢・性別・民族・同一人物を認識するものです(一部、表情認識アプリも搭載された顔認識アプリも紹介しております)。

 

百聞は一見にしかず、ですので、結果からご覧下さい。

 

f:id:micro-expressions:20170318010112p:plain

 

それぞれのアプリが私、清水の顔を認識したときの年齢・性別・その他を順に記載します。アプリの精度はいかに?

 

①30歳プラスマイナス5歳・女性

➡女性と判断されている!肌がきれいだからかしら!!笑(お問い合わせ先:株式会社JVCケンウッド・公共産業システム)

②26歳・男・15%の強度の笑顔

➡26歳!の頃はまだ学生で懸命に毎日勉強をしておりました。しかし!!微妙な笑顔を正確に認識しておりますね。(お問い合わせ先:株式会社アロバ)

③33歳・男・悲しみ

➡悲しみ表情演技してみました。ちゃんと認識されていますね。(お問い合わせ先:オムロン株式会社)

④23歳・男

➡23歳!早稲田に通っていた頃ですね。よく通ったハンバーグ屋さんと弁当屋さん、まだあるかな~(お問い合わせ先:株式会社セキュリティー・セキュリティー)

⑤35歳・中立顔

➡!!!!!!!(お問い合わせ先:株式会社SFC

⑥メガネあり:35歳・男 / メガネなし:25歳・男

➡メガネのあり・なしで年齢判定が変わるのですね!(Promiseテクノロジー株式会社)

 

答え合わせをしましょう。

 

そもそも清水の実年齢は何歳なのか?!私、1982年7月生まれですので、現在34歳、あと4ヶ月で35歳になります。今回の調査では、⑤の顔認識アプリが一番精度が高いということがわかりました。しかし、一応、他のアプリのことも擁護しておきますと、カメラの性能・距離・角度・明るさによって認識の精度が変わってしまうそうです。

 

年齢測定は、単なるマーケティング目的だけでなく、競馬場や酒・タバコ購入の際の年齢確認にも応用が期待されているそうです。

 

他にも顔から同一人物かどうかを認識するアプリがあり、指名手配犯の検挙に応用されたり、お店の常連客を識別し、顔パスゲートに応用したり、同人物の来店数をカウントしマーケティングに利用することが想定されているそうです。

 

顔認識・表情認識が今後どのように社会に影響を及ぼしていくのか?住みやすい快適な社会実現のために、弊社もテクノロジー分野にこれまで以上に積極的に関わらせて頂きたいと思う所存でございます。

 

 

清水建二

リテールテックJAPAN 2017 & SECURITY SHOW 2017参加レポート第一弾―感情認識アプリの可能性

テクノロジー

 

リテールテックJAPAN 2017 及び SECURITY SHOW 2017が3月7日(火)~10日(金)にかけて東京ビックサイトにて開催されておりました。

 

本日は参加レポートとして感情認識アプリのご紹介をさせて頂きたいと思います。今回私がご紹介する感情認識アプリは、凸版印刷×シーエーシーによる感情AI、Affdexです。

 

Affdexは、MITが10年の歳月をかけて開発し、世界75ヶ国400万人から収集された世界最大規模の感情データが内蔵された感情AI(米ベンチャーのAffectiva社の商品)です。

 

幸福・軽蔑・嫌悪・怒り・悲しみ・恐怖・驚きの7表情と個々に独立した21の表情筋の動きを認識することが出来ます。まずは色々な表情を、シーエーシーの社員さんとともにカメラの前でやってみました。

 

f:id:micro-expressions:20170318005601j:plain

  

みなさんの素敵な笑顔が集計されていきます。一人だけでなく集団の表情までも瞬時に認識できるところが大きな特徴です。1800回ものスマイルがこのカメラの前でなされているのですね。むむ…恐怖が少ない!意図的に恐怖表情を作ることは難しいことが知られていますので、カメラの前で恐怖表情をポーズしようとしてもAIは恐怖と認識しないのですね。しかしよく見ると5回、恐怖がカウントされていますね。このAIに恐れをなした人の本当の恐怖感情か!?…実は2回は私が恐怖表情をポーズしました。FACSコーダーはどんな表情でも、通常は意図的に作ることが出来ない表情でも意図的に作ることが出来るのです笑

 

さてさて、表情が正しく認識されることがわかったら、今度はその応用分野ですね。このAI何の役に立つのでしょうか?

 

こんなデモがありましたよ!

 

f:id:micro-expressions:20170315002700p:plain

 

 次々と食事のメニューがモニターに映し出されるのを見ていきます。

 

さて、どうなるのでしょう???

 

はい!私にオススメのメニューランキングが出ました!!

 

f:id:micro-expressions:20170315002748p:plain

 

モニターの上に付いているカメラに感情認識AIが搭載されており、次々と映し出される食事に私がどんな感情を抱いているか計測しているのです。ポジティブな感情を抱いていた順にオススメメニューが提示される仕組みなのです。

 

レストランに入っていつまでもメニューが決められない人には良いかも!近い将来、自分の潜在意識下で食べたいものを感情AIがチョイスしてくれる日が来るかも知れませんね。

 

この種の応用事例はいくつでも思いつきそうですよね。

 

婚活などでは、大量の異性の写真を見て、自分はどんなタイプの顔・プロフィールが好きなのか判断したり、会社や教室にいるメンバーの選好を計測することで、人員配置やクラス替えのサポートツールなどにも応用できるかも知れません。

 

他にも、Amazonが購入履歴からオススメ商品を通知してくれるように、Googleが検索ワードから関連広告を提示してくるように、PCや携帯のカメラに感情AIが搭載されていれば、私たちの無意識の選好(感情はときに無意識に生じるため)までも把握し、文字通り、心から欲しいと感じるモノや情報を提供してくれるようになるかも知れません。

 

直感や直観は、ときに理性によって積み上げられた推論よりも適切な解答を導いてくれることが知られています。無意識(感情)と意識(推論)との新たな共存の形とはどんなものになるのでしょうか?

 

 

清水建二

 

学術論文の読み方―研究方法・研究結果・考察編(表情分析エキスパートコース&英文読解コース補論)

表情分析エキスパートコース

 

本日は前回の続きです。学術論文の読み方―研究方法・研究結果・考察編です。

 

研究方法には、実験の調査方法が書かれています。実験参加者の構成や実験の手順、分析方法などが書かれています。論文の内容を批判するときは、主にこの研究方法の部分を的にします。「この論文の研究方法が○○という点で不適切なため、本論文の言う結論を見出すことはできない。」このように批判がなされます。このような批判の仕方を建設的な批判と言います。

 

一方、「この論文の言うことに価値を感じられない。」と言って論者や論文の内容を批判する仕方を破壊的な批判と言います。また「この論文の言うことは信じられない。なぜなら私の経験に反するからだ。」「この論文の言うことは信じられない。○●先生の意見とは違うからだ。」という批判の仕方を素朴な批判と言います。

 

もちろんある論を正当に批判する方法は、建設的な批判です。当然、建設的な批判をするには、研究方法をよく読み、その中にある問題点を探す必要があります(結果や考察のロジックが変だと批判できる可能性もなくはないのですが、研究方法の問題点を指摘する方が、オーソドックスな批判の仕方です)。

 

なお、建設的な批判を日常・ビジネスで行うには、その人の見解そのものを直接的に批判するのではなく、その見解に至ったロジック、データの整合性に関して批判することで見解に異を唱えることになります。こうした批判の仕方をすることで、相手の見解をより良いものへと昇華させられる可能性が生まれます。

 

おまけの話しですが、私もセミナーなどで批判を頂くことがあります。建設的な批判には、時間の許す限り真面目な議論で対応します。破壊的な批判は、スルーします。素朴な批判には、相手の受け入れやすい返答をお返ししています。

 

研究結果には、統計検定の結果が書かれています。統計学の知識がないとこの部分を理解することは出来ません。しかし、統計の知識があれば、この論文の言っていることがどのくらいの精度で確からしいのか、どのくらいの確率で間違える可能性があるのかが、客観的な数値から確認することが出来ます。

 

考察には、統計検定で得られた数値から何が言えるのかが書かれています。新たな仮説が生まれたのか、イントロダクションに提示した仮説が検証できたのか否かが書かれます。

 

考察の中、もしくは考察の後に書かれるものとして、研究の示唆・研究の限界・将来の研究、というものがあります。研究の示唆には、本研究の知見がどのような役に立つのか、他の研究結果と比べてどのように有用かなどが書かれています。

 

研究の限界には、本研究結果が明らかに出来た部分とそうでない部分が書かれています。また想定される建設的な批判が書かれる場合があります。例えば、「本研究の実験参加者は全て大学生である。実験参加者に様々な年齢層の社会人を含めたら、研究結果が変わり得る可能性もある。」という感じです。

 

将来の研究には、研究の限界を踏まえて、それを埋めるような研究、明らかに出来た部分を再度確かめる別の方法、明らかに出来ていない部分を明らかにするための研究の方向性などが書かれています。

 

学術論文を読むには、前提となる知識や論文特有の言い回しなどがあり、最初は読みにくいかも知れませんが、知識の蓄積と慣れによってどんどん読めるようになります。自身の見解を科学的なものにしたい、もしくは人に客観的な「事実」を伝えようとされる方にとって、学術論文を読めるようになることは必須だと私は考えています。

 

 

清水建二

推薦図書

科学哲学の冒険―サイエンスの目的と方法をさぐる (NHKブックス)
 

 科学的思考法とは何ぞや、ということについて書いてあります。ポパー反証可能性命題についての説明が素敵です。

 

入門 政治経済学方法論

入門 政治経済学方法論

 

 社会科学分野における様々な実証方法が紹介されておりますが、特に第0章の導入部分が秀逸だと思います。第0章以外は読まなくてよいとしても、第0章は科学リテラシー向上にはすべての人に読んで頂きたいと思えるくらい重要な章だと思います。

学術論文の読み方―要約・イントロダクション編(表情分析エキスパートコース&英文読解コース補論)

表情分析エキスパートコース

 

今回と次回のブログでは、表情分析エキスパートコース及び表情分析英文読解コースでご説明した、もしくはご説明しきれなかった学術論文の読み方―要約・イントロダクション編について補論させて頂きたいと思います。

 

心理学系の学術論文の構成は、要約・イントロダクション・研究方法・研究結果・考察がオーソドックスです。それでは各構成についてご説明しましょう。

 

要約には、その論文の趣旨と研究からわかったことが簡潔に書いてあります。要約を読めば、その論文が何について扱い、どんな方向で論を展開するのかの予想が出来ます。

 

イントロダクションには、その論文で扱う問題や疑問が、関連研究の歴史の中でどんな立ち位置にあるのか、その論文で扱う問題がどのように・なぜ新たに問う(実験し、確かめる)必要があるのかが書かれています。同じ分野の論文を読めば読むほど、イントロダクションには似たり寄ったりの内容が書いてあるということに気づきます。研究の歴史、変遷なのですから、当たり前と言ったら当たり前です。従いまして、イントロダクションを読んでいるときの頭の中は「あ~そう、そう。そういう研究の歴史だよね。」と再確認しながらロジックを追っていく感じとなります。

 

論文の内容を素早くつかみたいのならば、要約➡考察の順で読めば、誤解を恐れず言うならば、これらの部分だけ読めば大抵、こと足ります。しかし、論文の内容を人に伝えたり、論文の知見をご自分の論の補強に利用したり、論文の見解を批判したい人は、要約と考察だけでなく、論文全てを読みます。

 

ちなみに、ある人が「これは科学的に検証されている見解です。」という発言するのをどこかで耳にされる場合、その人が論文を本当に読んで発言しているのか、聞きかじった知識だけで話をしているのかを見分けることが出来ます。例えば、「その見解は、その分野の研究の中でどのような位置を占めているのですか?」「マジョリティーの見解ですか?」「いつ頃、発表された見解ですか?」と問うのです。論文をきちんと読んでいれば、イントロダクションの部分で必ずこの問いの答えが出ているので、この問いに答えることが出来ます(もしくは「それはどのような研究方法で検証されたのですか?」と問うのも一つの方法です)。

 

イントロダクションの中に、もしくは仮説と名を打って、実験で証明したい仮説を記載する論文もあります。仮説がある論文は仮説検証型論文と言い、仮説がない論文は仮説生成型論文と言います。

 

仮説生成型の論文の場合、まだ仮説を立てられるほど知見が溜まっておらず、手探り状態なので取り敢えず色々実験してみよう、というノリの挑戦的な論文という感じです。

 

長くなってきましたので、この辺りで終えたいと思います。次回、学術論文の読み方―研究方法・研究結果・考察編をお送り致します。

 

 

清水建二

参考図書

創造の方法学 (講談社現代新書)

創造の方法学 (講談社現代新書)

 

初版は1979年ととても古い書籍ですが、科学的創造・思考法とはいかなるものか?ということを教えてくれる名著です。私は本書を学部2年生のときに読んだのですが、そのときの衝撃を今でも覚えています。論理という言葉は知っていましたし、そこそこ使いこなせていると思っていましたが、同じ文章というか、記述・説明と言いますか、同じ日本語でもなぜこれほどまでに趣がちがうのか、言わば、論理の重み、と言ったような現象の謎が氷解するキッカケを与えてくれました。

感情AIを体験してみませんか?

テクノロジー

 

私の目が入っている感情AIがあることをご存知ですか?私の目とは、すなわち、顔のあらゆる動きを測定するためのFACSというマニュアルの知見が搭載されたAIです(注:私が感情AIを開発したわけではなく、私はコンサルという立場で関わらせて頂いております)。

 

私が近年傾注している分野は、感情AIです。特に、表情認識から感情を推定することを自動化するようなアプリの開発、向上、実用、限界などに関心を持ち、関連企業と連携しながら感情AIの可能性を日々、模索しています。

 

この度、こうした活動の一つの成果として、リテールテックJAPAN in 東京ビックサイトにて感情AIのお披露目会が行われます。

 

感情AIが搭載されたカメラの前で、色々な表情をして見て下さい。驚くほど、正確に、瞬時に私たちの感情を検出してくれます。

 

感情AIが搭載されたカメラの前で、食事のメニューを見て下さい。あなたが今、何を食べたいか、オススメしてくれます。

 

その他、色々、試してみて下さい。自分の笑顔は、ナイスと判定されるのか、左右非対称度が大きすぎて、軽蔑よりと推定されるのか?変顔したらAIは、どう判定するのか??笑、などなど。

 

詳細は以下のURLをクリック下さい。

 

凸版印刷とシーエーシー協業のニュース

http://www.cac.co.jp/news/topics_170302.html

 

リテールテックJAPAN

会場:東京ビックサイト

開催日時:2017年3月7日(火)~10日(金)10:00~17:00(最終日は16:30まで)

https://messe.nikkei.co.jp/rt/

 

是非、感情AIが織りなすヒトとAIとの交流を体感しに来て下さい。

そして皆様のアイディアをお聞かせ下さい。

「こんなの出来たらいいな。」が本当に実現できるかも知れません。

 

 

清水建二