微表情

フラッシュのように一瞬で表れては消え去る微妙な表情、微表情。このブログでは、微表情、表情、顔を始めとした非言語コミュニケーションの研究や実例から「空気を読む」を科学します、「空気」に色をつけていきます。

【コラボセミナー告知】仕事を任せたいと思わせる「表情戦略」と「印象改革」

 

面接・面談で自分の気持ちを伝えたい。
プレゼンで企画の良さを伝えたい。
営業でサービスの特徴を伝えたい。
接客で良い印象を与えたい。
部下・同僚に「機嫌が悪い」と勘違いされてしまう――。

 

対人コミュニケーションでは、
自分の気持ちと相手からの見え方がズレることで、
意図しない印象を与えてしまうことがあります。

 

では、このズレの背景には何があるのでしょうか?
そして、どうすれば改善できるのでしょうか?

 

2月26日(木)13:00~開催のコラボセミナーにて、
科学的かつ実践的な方法をご紹介します。

 

本セミナーは、株式会社CAC identity様主催のコラボセミナーです。
同社はAI表情トレーニング「カチメン!」を提供しており、
私は「カチメン!」の表情監修およびコラム執筆を担当しております。

 

本セミナーでは、「表情戦略」と「印象改革」の核となる内容を、
ケーススタディや様々な表情画像を通じて分かりやすく解説します。

 

また、生成AIによるコミュニケーションが日進月歩で発展するなかで、
人間にしかできない「身体を使い、相互性(調整・配慮・説得)
のあるコミュニケーション」の重要性は、今後ますます高まるでしょう。
AIに代替されないコミュニケーションに関心のある方にもおすすめのセミナーです。

 

詳細・お申込みは、以下のバナーをクリックして下さい。



清水建二

【2025年版】東洋経済オンライン執筆表情分析記事検証結果~表情分析の妥当性はどのくらい?

 2024年末に続く、検証記事第二弾です。2025年に東洋経済オンラインにて執筆した表情分析記事の妥当性を検証をしたいと思います。私の推測の何が当たり、何が間違えていたか。2025年に執筆した記事の中で結末が明らかとなり、検証可能となった記事は、次の1本です。

 

掲載日:2025年1月10日
テーマ:「世界が感動」浅野忠信スピーチが心を掴んだ必然 技巧がなくても人の心を動かすことはできる
URL: https://toyokeizai.net/articles/-/851317  
概要&結果:第82回ゴールデン・グローブ賞にて『SHOGUN 将軍』の助演男優賞に輝いた浅野忠信氏の受賞スピーチの表情・動作を分析。手ぶりが胸の前など「見えやすい位置」ではなく腰より少し上でさりげなく反復していた。技巧として見せるジェスチャーなら目立つ位置で行うはず。また、一流俳優ゆえ緊張で固くなるとも考えにくい。ゆえに、この手ぶりは思考を促進する自然発生の動きであり、発言は原稿準備ではなく、その場の感情から「口をついて出た」即興の可能性が高いと推測。

 

推測の結果は…

 

(1)スポニチ(2025-04-25)「結局即興です」と明言(NHK Eテレ番組内での発言として)
https://www.sponichi.co.jp/entertainment/news/2025/04/25/articles/20250425s00041000387000c.html  
(2)映画.com(2025-01-13)「頭が真っ白」「即興でしゃべるしかない」と告白(凱旋記者会見)
https://eiga.com/news/20250113/12/  
(3)ENCOUNT(2025-02-22)用意して暗記練習していたが「呼ばれた瞬間に全部飛んだ」等、即興に近い経緯を説明
https://encount.press/archives/756069/  
(4)TBS NEWS DIG(2025-02-22)「暗記して毎日練習してたんですけど飛んじゃった」趣旨(即興になった裏話)
https://newsdig.tbs.co.jp/articles/-/1747955 

 

ということで、推測の結果は、当たり、です。

非言語の動きが、自然発生か意図的かを判別できることを示せました。

 

これからも後付け的な解釈ではなく、真偽推測や意図推測、行動予測をするような表情・動作分析をし、非言語分析の実用性を証明できるような記事を執筆していきたいと思います。

 

 

清水建二

【コース告知】感情・表情認識AIの時代だからこそ、認定FACSコーダになろう

 感情・表情認識AIは、動画を読み込ませるだけで「怒り〇〇%」のように出してくれるためとても便利です。ですが、その数字をそのまま真実だと信じ切るのは危険です。AIは基本的に「顔の動き」から「感情ラベル」を推定しますが、現実の表情は顔面筋のコンビネーション、タイミング、文脈等で意味が変わり得るのです。

 

たとえば「熟考している顔」。考え込むと眉間にしわが寄る、口まわりが力むなどの動きが同時に起きやすく、AIがそれを「怒りの手がかり」として拾い、怒りと誤判定してしまうことがあります。

 

また、AIは条件次第で精度が揺れます。商用ソフトの検証では、基本感情の表情分類が平均80%正しく当たった一方、個別の顔面筋(眉が上がる、下がる、口角が水平に引かれる、上瞼が上がる等)の一致度は60%程度と報告されています(Skiendzielら, 2019)さらに、スタジオで撮ったような「顔が正面・明るい・表情がはっきりした画像」では比較的うまくいく一方で、現実の現場は条件がバラバラです。たとえば、照明が暗い、顔が斜め、髪やマスクで一部が隠れる、笑いながらも緊張しているなど、いろいろな要素が混ざります。そうした「日常に近い画像(in the wild)」を使ったテストでは、7種類の表情分類で正解率が約63%だったという報告もあります(Gómez-Sirventら, 2023)つまり、顔面筋を正確に測る資格を持つ人間の専門家(「認定FACS:Facial Action Coding Systemコーダ」のこと)を100点とするなら、AIは条件次第で「80点台にも60点台にもなる」というイメージです。

 

ゆえに、AIの数字は「便利な推定」ではあるものの、状況によって外れることがあるため、結果をそのまま信じるのではなく、点検できる目が必要になります。

 

 そこで重要になるのが、人間の認定FACSコーダです。FACSは、感情を推定する前に「どの筋肉がどう動いたか」をAU(Action Unit:視認可能かつ最小の顔面筋における動作単位のこと、FACSにおける専門用語)として客観記述し、解釈を後段に分ける枠組みです。だからこそ、AIの結果を監査するだけでなく、人の表情をより正確に観察・分析し、心理分析や慎重さが問われるコミュニケーション(カウンセリング、人事面接、嘘検知など)に活かしたい方にも強力なツールとなります。

 

 FACSを学びましょう。この度、2月8日(日)より 「Facial Action Coding System 12時間速習コース」を開講します。本コースでは、①顔面筋の動きを客観的に測定・分析するFACS分析法、②その動きの意味(怒り・悲しみ・幸福・熟考等)を推測するFACS解釈法を学んで頂きます。特にLesson3では「AU4は怒りか熟考か?」「AU23/24を怒り・熟考・味覚にどう分類するか?」のように、まさに「誤判定が起きる分岐点」を扱います。AI時代だからこそ、出力に振り回されない「読む力」を身につけましょう。

 

詳細・申込はこちらから

 

 

参考文献

Skiendziel, T., Rösch, A. G., & Schultheiss, O. C. (2019). Assessing the convergent validity  between the automated emotion recognition software Noldus FaceReader 7 and Facial Action Coding System Scoring. PloS one14(10), e0223905. https://doi.org/10.1371/journal.pone.0223905

Gómez-Sirvent, J. L., López de la Rosa, F., López, M. T., & Fernández-Caballero, A. (2023). Facial Expression Recognition in the Wild for Low-Resolution Images Using Voting Residual Network. Electronics12(18), 3837. https://doi.org/10.3390/electronics12183837

Ekman Paul, Friesen Wallace, Hager Joseph (2002) Facial action coding system: a technique for the measurement of facial movement.
Consulting Psychologists Press, Palo Alto, CA

【セミナー告知】ドラマの「嘘」は、どこまでリアルなのか?—微表情×虚偽検出×監修者の舞台裏(全2回)

ドラマや映画で描かれる「嘘」や「見抜き」の場面。
「面白い」と思う一方で、どこかでこう感じたことはないでしょうか。

 

それ、現実でも本当に起きるの?
逆に、現実はもっと地味で複雑なのでは?
「微表情」って結局、何がどこまで言えるの?

 

本セミナーは、「科捜研の女」「最後の鑑定人」監修者が、微表情・しぐさ・虚偽検出の科学をベースに、ドラマに込められたリアルとフィクションをほどきながら、「外さない見立て」の作法を体感型でお届けする90分×2回のシリーズです。

 

こんな方におススメ
・微表情・しぐさから「嘘」を推測する方法を、科学ベースで体感しながら学びたい
・「科捜研の女」「最後の鑑定人」「Lie to Me」等の「嘘の描き方」を監修者の解説付きで楽しみたい
・取り調べ・面談・営業・人事・交渉など、言葉だけでは判断しづらい場面が多い
・「微表情=嘘発見器」ではない前提で、誤読・早合点を減らす読み解きを身につけたい

 

第1弾(1/17)ドラマに込められた「リアル」と「フィクション」をほどく
日時:2026年1月17日(土)18:00〜19:30
テーマ:ドラマの「嘘」はどこまでリアル?—を入口に、ノンバーバルサイン/微表情/感情の原因推測まで、「見抜く」より「外さない」ための基礎をつくります。

主な内容:

ノンバーバルサインから嘘を推測する(「最後の鑑定人」題材)
微表情から嘘を推測する(「Lie to Me」題材)
科捜研の女」監修に挑戦(「科捜研の女」題材)
表情分析AIの現在と展望
Zoom受講者向け:質疑応答

 

第2弾(1/24)エンタメとリアルのバランスを、監修者の視点で解剖する
日時:2026年1月24日(土)18:00〜19:30
テーマ:リアルに寄せすぎると「伝わらない」、エンタメに寄せすぎると「嘘っぽくなる」。その衝突を、監修者はどう扱うのか。第二弾は、監修現場で直面する題材をもとに、感情の流れ/視点の置き方/複数サイン×質問法の3つで、読み解きと表現の両方を体感します。
主な内容:
自然な感情の流れをとらえる(「科捜研の女」題材)
神の視点と人の視点を意識する(「最後の鑑定人」題材)
戦略的な質問法×複数ノンバーバルサイン(「Lie to Me」題材)
監修の舞台裏(エンタメとリアルを両立させる工夫)
質疑応答

 

※第一弾・第二弾は単体受講OK。続けて受けると理解が立体的になります。
※弊社制作の虚偽検出テスト動画を使い、推測を体感しながら学びます。
著作権遵守の観点から、作品の映像・画像は放映しません(未視聴でも理解できる構成/視聴済みだとさらに楽しめます)。

 

開催概要(各回共通)
形式:オンライン(Zoom)/アーカイブ(録画)
定員:オンライン 10名/アーカイブ 20名(先着)
料金:各回 3,300円(税込)
アーカイブ:開催日3日以内にURL送付/翌月末まで視聴可(質疑応答は録画しません)

 

▼詳細・申込はこちら
【第1弾:2026/1/17(土)18:00〜】詳細・申込はこちらから:

【第2弾:2026/1/24(土)18:00〜】詳細・申込はこちらから:

 

非言語コミュニケーション、微表情、虚偽検出、ドラマの裏側に興味・関心のある方のご参加をお待ちしております。

 


清水建二

「便利なAI」と「面倒な人間」が共存するためのコミュ力論


 生成AIが日常やビジネスのさまざまな場面で使われることが「あたりまえ」になりつつある今、人間の仕事やコミュニケーションの在り方も大きく変わろうとしています。便利さや効率の面で生成AIの恩恵は計り知れません。しかしその一方で、表情や声のトーン、しぐさといった非言語コミュニケーション、そして他者への共感や思いやりをおろそかにしてしまうと、「AIに奪われない仕事」どころか、「人間らしいコミュニケーション」そのものを手放してしまいかねない――こうした危機感を私は抱いています。

 

AI時代に失われつつある非言語コミュニケーション

 

 スマホやPC上のおしゃべりアプリや生成AIは、滑らかな言葉で私たちに応答してくれます。しかしそこには表情も、身ぶり手ぶりもありません。視線が泳ぐ、口元がわずかにゆがむ、言葉にならないため息が漏れる――リアルな対人場面で、私たちはこうした非言語の情報から相手の感情を読み取り、自分の言葉を微調整しています。非言語を含まない対話に慣れ過ぎると、「言葉に乗らない想い」を受け取る力も、自分の想いを繊細に伝える力も、少しずつ錆びついていきます。これは、子どものコミュニケーション発達への影響を懸念する川原(2025)の議論を、成人のコミュニケーションに拡張した問題意識です。

 

また、生成AIはどれだけぞんざいに扱っても怒りません。命令口調で指示しても、きつい言葉で批判しても、何度もやり直しをさせても、文句ひとつ言わずに従ってくれます。同じ愚痴を繰り返しても、辛抱強く「共感的」に応答してくれます。しかし生身の人間相手に同じことは出来ません。相手の顔色をうかがいながら言葉を選び、強さを調整し、「これ以上は言わないでおこう」と自制します。こうしたプロセスによって、私たちは「言葉が人を傷つけ得る」ことを身体で学んでいます。AIとの会話ばかりに慣れてしまうと、自分本位で乱暴なコミュニケーションに無自覚のまま傾いていく危険も指摘されています(川原, 2025)。

 

さらに、生成AIの回答は決して中立ではありません。開発した組織や国の価値観、利用している言語圏の歴史認識や世論が、微妙に、あるいは露骨に反映されます。一田ほか(2025)は、生成AIの応答が言語や提供主体によって揺れ動く事例を多数紹介し、その背後にある情報安全保障上のリスクを指摘しています。領土問題や歴史認識のように見解が分かれるテーマでは、使う言語によって答えが変わることも報告されています。「生成AIに聞けばひとまず答えが出る」時代に、こうした偏りは異なる常識をあたかも「唯一の正解」であるかのように錯覚させます。開発主体の価値観を反映した回答を繰り返し浴びることで、同質の意見だけが増幅されるエコーチェンバー現象に巻き込まれやすくなる、という警鐘も同書で鳴らされています(一田ほか, 2025)。

 

このような状況のなかで、表情分析を専門とする私の立場から強調したいのは、「リアルな人間関係の中に身を置き続けること」の重要性です。価値観も立場も異なる複数のコミュニティと関わり(関われるコミュニティが限定されていれば、可能な限りそのコミュニティ内で様々な意見を述べてみる)、自分の「常識」や意見を実際に口に出してみます。賛同されることもあれば、静かな違和感だけが返ってくることもあるでしょう。言葉では「そうですね」と同意しながら、鼻根に嫌悪の微表情が浮かぶこともあります。そのズレに気づけるのはアルゴリズムではなく、人間の目と身体です。オンラインの言語情報だけでは見えない「本音との距離」を、非言語は容赦なく教えてくれます。

 

仕事の現場で問われる「感情を読む力」

 

 ビジネスの現場でも同じです。プロジェクトリーダーがメンバーの仕事ぶりに気づき、改善点を伝えようとしたとき、「AIに聞くから大丈夫です」と返されるかもしれません。確かに生成AIに相談すれば、一般的な改善策や丁寧な指摘文を一瞬で作ってくれるでしょう。しかしそこで役割を放棄してしまえば、リーダーとしての存在価値は薄れていきます。人間のリーダーの価値とは、メンバー自身が気づいていない盲点を見抜き、タイミングと伝え方を工夫しながらフィードバックすることにあります。自分の問題点が分かっているならAIにも質問できますが、「何が問題なのか」が分からないため、適切なプロンプトを書けないのです。

 

さらにAIはどうしても「平均的な人」に効くアドバイスを返しがちです。しかし現実の職場では、人によって「効く言葉」は全く違います。ある人には厳しい指摘がスイッチになる一方で、別の人には承認が何よりの原動力になります。誰にどんな言葉が届きやすいかを見極めるには、日頃から相手の表情や声色、沈黙の意味を観察し続け、価値観を知る必要があります。ここにこそ、人間の観察力と非言語感受性が生きてきます。

 

リーダーの感情表現とチームの成果の関係を検証したVan Kleefら(2010)の研究は、その一例です。彼らは、怒りや喜びを示すリーダーのもとでチームの課題に取り組ませ、チームメンバーの性格特性との相互作用を分析しました。その結果、協調性の低いメンバーが多いチームでは、怒りを示すリーダーの方が成績を高める一方、協調性の高いメンバーが多いチームでは、怒りは負荷となり成果を下げ、喜びを示すリーダーからのフィードバックやアドバイスの方が高い成果につながることが示されました(Van Kleef et al., 2010)。つまり、「メンバーの性格やチームの雰囲気に応じてアドバイスの仕方を変えることが大切」であり、その判断には、表情や態度から感情の微妙な変化を読み取る力が欠かせないのです。

 

チームワークの研究でも、こうした「感情を読み取る力」の重要性が示されています。Woolleyら(2010)は2〜5人のグループを多数作り、パズル課題、協力課題、ブレインストーミングなど多様なタスクに取り組ませ、その成績を総合的に分析しました。その結果、「どの課題でもそこそこ出来るチーム」には共通の要因があることが分かりました。すなわち、①メンバーの平均的な社会的感受性=相手の表情や声のトーンから気持ちを読む力が高いこと、②発言が特定の人に偏らず全員がほどよく話すこと、③そうした感受性の高いメンバーが一定数いることです(Woolley et al., 2010)。「空気を読み合い、安心して発言できる場をつくれるチーム」ほど、多様な課題で成果を出しやすいということであり、ここでも非言語コミュニケーションの力が中核をなしていると言えます。

 

AIと共存しながら、人間本来のコミュニケーションを育てる

 

 現在すでに、表情や声の変化から感情を推定するAIは存在します。怒りや喜び、悲しみなどのラベルを、ある程度の精度で教えてくれるでしょう。しかし、「なぜその感情に至ったのか」「この怒りや不安を、誰が、どの順番で、どの言葉で扱うとチームが前に進めるのか」といった設計と実行は、まだAIには任せられません。たとえ将来、原因推定や介入の提案までAIが担えるようになったとしても、実際にその場に立ち、生身の相手の表情や声の震えを感じながら、関係を壊さずに一歩踏み出してもらう役割は、人間の身体を通したコミュニケーションでしか果たせないでしょう。

 

生成AIが高度になればなるほど、「ひとりでも何とかなる仕事」はAIに任されていきます。その一方で、「相手の感情を読み取り、すり合わせながら前に進める仕事」「異なる価値観どうしの摩擦を、言葉と非言語を駆使して調整する仕事」は、人間だからこそ担える重要な役割として残り続けます。表情やしぐさを丁寧に観察し、共感や思いやりをもって相手に関わること――このアナログで面倒なプロセスこそが、AI時代における人間独自の仕事を維持・育成・発展させる鍵だと考えています。

 

だからこそ、生成AIと上手に付き合いつつも、同時に「リアルコミュニケーション」を意識的に取り戻す必要があります。画面越しの言葉だけの世界から一歩外に出て、目の前の人の表情の揺れ、声のトーン、沈黙の重さを感じ取ることが大切です。そこで得られる情報の豊かさと、人間同士だからこそ生まれる葛藤と成長こそが、AIには決して代替できない、人間本来のコミュニケーションなのです。

 

参考文献
一田和樹、石井大智、石川雄介、岩井博樹、黒井文太郎『目にする情報の半分以上が偽・誤情報になる 情報安全保障の新論点』講談社(2025)
川原繁人『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』朝日新聞出版(2025)
Van Kleef, G. A., Homan, A. C., Beersma, B., & van Knippenberg, D. (2010). On angry leaders and agreeable followers: How leaders’ emotions and followers’ personalities shape motivation and team performance. Psychological Science, 21(12), 1827–1834. https://doi.org/10.1177/0956797610387438
Woolley, A. W., Chabris, C. F., Pentland, A., Hashmi, N., & Malone, T. W. (2010). Evidence for a collective intelligence factor in the performance of human groups. Science, 330(6004), 686–688. https://doi.org/10.1126/science.1193147

リアルコミュニケーション再び~生成AIによる知覚への侵食


 生成AIと対話や議論をしていると、ときどき、「AIの知識、偏っている?」と思うことがあります。一方、「本当は自分の方が偏っているのに生成AIを負かそうとしているため、生成AIのアウトプットの方が偏っている」と言いがかりをつけようとしているのではないかとも思います。モヤモヤします。最近、このモヤモヤのヒントとなる本に出会いました。

 

それは、一田和樹、石井大智、石川雄介、岩井博樹、黒井文太郎『目にする情報の半分以上が偽・誤情報になる 情報安全保障の新論点』講談社 (2025/10/29)という本です。特に注目しているのは、p.63~p.65の内容です。

 

www.kodansha.co.jp

 

 本書の中で、生成AIの出力には開発者や組織の価値観・イデオロギーが反映されることが指摘されています。生成AIは言語圏ごとの世論や歴史認識を取り込みやすく、領土問題のように見解が割れる論点では回答が変わります。たとえば、クリミアの帰属をChatGPT-4に尋ねると、ロシア語では「ロシア」、ウクライナ語では「ウクライナ」と答えるとされます。台湾の帰属についても、簡体字では「中国」、繁体字では「台湾」と回答し、ゴラン高原でも同様の傾向が確認されています。
 このようにAIの答えは言語圏の前提で揺れますが、その揺れは開発主体が置かれた政治的環境によってさらに増幅されます。米国と中国の状況を見ると、トランプ政権は連邦機関におけるDEI(多様性・公平性・包括性)や気候変動を支持するAIの導入に否定的で、報道では政府文書から関連語の削除が進んでいるようです。一方、中国ではNewsGuard社の調査により、中国企業のAIモデルが自国に都合のよい回答を返す例が示されています。

 

 検索エンジンにキーワードを打ち込み、情報を取捨選択する時代から、生成AIに質問し、その回答を受け入れる時代へ移りつつある今日、生成AIの偏った回答は、私たちの異なる常識をあたかも中立な答えだと錯覚させるおそれがあります。さらに、AIを開発する国や組織のプロパガンダが生み出すエコーチェンバー(閉鎖的なオンライン空間で同質の価値観が共感によって拡大する現象)に巻き込まれやすくなる危険性も高まります。

 

こうならないためには、どうしたらよいでしょうか?

 

まずは、本書を読んで下さい。

 

表情分析家としての私の回答は、色々な人、様々な価値観が織りなす複数の団体とリアルな付き合いをしよう、ということです。リアルな人を前に、自分の意見や感想、常識と思うことを述べてみる。そうすると、受け入れられることもあれば、そうじゃないことも起きる。言葉では「私もそう思います」と同意しつつも嫌悪の微表情が出ていれば、本音は別かも知れない。

 

 私たちのコミュニケーションは、言語と非言語で成り立っています。言語一辺倒で展開されるオンライン空間から離れ、非言語で伝え・伝えられる物理空間に身を置くことで、コミュニケーションから得られる情報の質が増え、自身の思想の立ち位置を知ることが出来るでしょう。

 

 生成AIが愛撫するコミュニケーション世界は、ひとりぼっちをより「ひとり」にしてしまう。自分の世界が全てであると思い込み、様々な価値観が偏在する世界の声に耳を塞ぐどころか、その声の存在すら気づけなくなってしまう。そんなふうに思います。様々な価値観の存在を教えてくれるのは、アルゴリズムで決定づけられたAIではなく、ときに突拍子もないことをする人間です。リアルなコミュニケーションをしましょう。

 


追伸:私は、感情心理学、特に表情としぐさを通じて、ヒトのコミュニケーションについて日々考え、実践しています。そんな場の一つが、今週、開講されます。2025年11月15日 (土) 開講「表情・しぐさ分析12時間速習コース」です。詳細・申込は、次のURLをご覧ください。

https://peatix.com/event/4603917/view

 


清水建二

「0.2秒で見抜く感情のサイン 究極のコミュ術 清水建二の微表情心理学」日本発売開始!!

 

 2025年の3月に台湾にて撮影&作成、先行発売された「0.2秒で見抜く感情のサイン 究極のコミュ術 清水建二の微表情心理学」が、ついに日本でも発売開始されました。

 

万国共通の7表情の理論的解説、表情の文化差、微表情検知トレーニング、ビジネス・パートナー・人間関係・嘘検知における微表情ケーススタディー等々、表情・微表情を活用したコミュニケーションスキルを獲得して頂くべく、様々な観点から解説しております。豊富な画像と動画を用い、直観的にわかりやすく実践的な内容となるよう心がけました。

 

物理的な人とのコミュニケーションに距離があるオンラインコミュニケーションや生成AIとのコミュニケーション。同じ空間に身を置く者同士のリアルコミュニケーション。人との距離が離れつつある今日こそ、改めてリアルコミュニケーションを見つめてみませんか。自他の本心を見つめ、自省と共感を持ち、信頼関係を醸成できる表情・微表情コミュニケーションを一緒に学びましょう。

 

3時間のオンラインコースで、購入後、すぐに、いつでも、学ぶことが出来ます。
現在、コースコンテンツの一つを無料視聴して頂くことが出来ます。
さらに今なら、割引価格で購入できます。

 

「0.2秒で見抜く感情のサイン 究極のコミュ術 清水建二の微表情心理学」詳細及び購入は次のリンクよりお願いします。

www.pressplay.co.jp

 

 本コースの内容をより詳しく学びたい、もっとトレーニングを積みたい、講師や他の受講生とインタラクティブな学びを希望されます方は、11月15日(土)開講の「表情・しぐさ分析12時間速習コース」もご検討下さい。

https://peatix.com/event/4603917/view

 

学術的に裏付けがあり、実際のコミュニケーションで使える表情・微表情コミュニケーションを適切に学ばれたい方におススメします。

 


清水建二