コラム
「表情分析」を使う
AIを使った顔(表情)分析は、本人識別・認定と人の感情・情動・意図の測定の2つに分かれる。
このうち、本人識別・認定は、実用レベルの精度を達成し、空港のイミグレーションに使われるほど重要なインフラになっている。
中国では指名手配容疑者の捜索にまで使われ、管理社会化の進行の象徴になっている。
このように顔分析は完成の域に達している。
もうひとつの表情分析はまだ開発途上、データ収集段階といえる。
顔分析は本人かどうかのゼロかイチかの判定だが、表情分析はいくつかの感情・情動・意図の「分類問題」でAIを使うにしても複雑性を
抱えている。
喜怒哀楽の感情は心(脳)が受動的に感じるだけでなく、笑う、泣く、怒るなどの行動(反応)を伴う。さらに情動は、逃げる、攻撃する、
画策するなどの社会的行動の起動要因になる。
もちろん、行動は、その時の感情・情動からオートマチックに導き出されるわけではない(野生動物はそうだと考える人もいる)。
動物の中でもヒトは、ヒトの中でも文明人は、感情・情動ではなく理性によって行動を起こす(べき)とされている。
人類は進化の過程で理性の認知体系を築き上げてきた。
文明人(現代人)は理性に基づいて行動するももので、その際は感情・情動は抑制すべき、あるいはバランスを取るべきものとされる。
パトス(感情・情動)だけで行動を起こすのは野蛮人、思慮浅い人で、文明人はロゴス(理性)に従って行動するものとされている。
理性に基づく行動は環境と調和し、予測可能であり、理性による修正に柔軟に対応する。それだけにパワーが弱いことが多い。
感情・情動のみに基づく行動は、環境(その場の空気)を無視し、予測不能で、途中修正はできない。
それだけ、極めてパワフルで、激烈化しやすい。理性による殺人・暴力は少ないが、感情・情動による殺人・傷害は極めて多い。
ロゴスはその名の通り言語化可能で古来、法学が担当してきた。パトスは通常、言語化するのが難しい(うなり声や叫び声は言語ではない)
とされ、心理学(文学)が担当してきた。ロゴスは進化の過程で論理化、体系化されてきたが、パトスは原始の姿のままと言える。
心理学では感情・情動は偏桃体が活性化するいわゆる原始的・動物的情動と前頭前野の活性化を伴う認知的情動とに分ける。
偏桃体中心の情動は、文字通り「エモーショナル」な反応である。
この情動に触発される行動は「闘争か逃走か」のように、本能的・動物的である。
一方で、同じ感情・情動でも扁桃体だけでなく前頭前野も関わるものは、快楽、意欲、欲望、羨望、嫉妬など社会性を伴うもので、
情動が自動的にある行動を起こすことはなく前頭前野の「理性」のコントロールを受ける高度で複雑のものである。
感情・情動をいくつかに分類して、それぞれに特有のニューロン発火経路があるとの仮説に基づき発火経路を測定すれば、感情・情動が
測定できるとの考え方がある。
ある感覚刺激が、ある感情・情動を継起し、それに従って行動が意図され、実行される一連の流れを想定している。
この測定には、感情・情動の担い手(対象者)にアンケート、インタビューを課して集計し、どの感情・情動が活性化したかを測定する
伝統的で記述的な方法論と、生理データを直接計測しようとする方法がある。
前者は言語を、後者は生理計測データ(視線、脳波、汗腺、呼吸・心拍)を指標とする。
ここに最近(と言っても数年前)、表情の観察が加わった。人による観察ではなくカメラを通して表情パターンを収集し機械学習
させて表情からその時の感情・情動を予測・推定・確定するシステムである。
各社から提案されているシステムの多くはエクマンの理論に基づき、6〜7種類の感情・情動(怒り、嫌悪、恐怖、幸福、悲しみ、驚き)
を数百万の学習データ(表情の写真)を機械学習させ、表情分析のAIとしている。
最近は分類だけでなく、幸福なら幸福の度合(強弱)まで測定するようになっているらしい。
この表情分析システムは、個人でも集団でも活用できる。
個人であれば、ドライブレコーダーにセットして運転中の表情から感情・情動を判定し、「怒りにかられてアクセル踏みすぎ」とか、表情から眠気
(感情ではない)を判断してドライバーに警告する、などである。
集団であれば、劇場の出口にセットしておいて公演ごとの客の満足度、感動の度合を表情から分析し、公演の成功・失敗の客観的判断材料
としたり、当公演を延長するか、打ち切るかの判断に使えそうである。
表情分析をマーケティングの現場で使うことを考える。
製品開発では、コンセプトと製品チェックの場面で使える。コンセプトや製品の評価は通常は定性調査やCLTなどで行われる。
対象者の言語による評価と同時に表情分析から感情・情動を定量的に計測する。これによって結果分析の補強データとして使う。
ただ、表情分析をメインデータとして使う(表情分析だけで「結論」を出す)ほどのデータの精度、蓄積はない状況である。
プロモーションで使うとしたら広告、店頭プロモーションの評価に使うが、ここでも他のリサーチデータの補強データでメインデータにはならない。
店頭やウェッブサイトの評価にはメインデータとして使えそうである。
一定以上のサンプルサイズの表情データを取得して、他の調査なしで、表情分析の結果だけで施策の優劣が判断できる。
サンプル(消費者)は言語表現が苦手だから「直接、心の中をのぞく」のである。そののぞき窓としての表情分析である。
*NPOうま味インフォメーションセンターの資料で、赤ちゃん(もちろん、しゃべれない)に甘味、旨味、酸味、苦味の溶液を与えた時の表情の写真 がある。「好き、幸せ、嫌い、いやだ」の感情・情動そのものの表情を浮かべている。言語表現できない赤ちゃんの心の中を直接のぞくことができている。
言葉を介さずに消費者の心(感情・情動)の中を直接のぞけることができれば、マーケティングで非常な強力な武器になる。
表情観察データの信頼性は、感情・情動と表情の間に精度高い「文法」が存在する必要がある。
ある感覚刺激(甘味)は幸福感に強く結びついていて、幸福感は表情筋の特定の動きパターンに一致していなくてはならない。
さらに、幸福感の強弱に比例して動きパターンが変化しないとデータとしては使いずらい。
現在のところ、感情・情動と表情の間の文法はわかっていない。わかるのは非常に大まかな相関関係だけである。
前述のように特定の情動に特有のニューロンの発火パターンがあり、その発火パターンは安定的に表れるという仮説はまだ、検証されていない。
まして、強弱などは無理である。それどころか、
感情・情動は感覚刺激への「反応」ではなく、「予測に基づいてその都度構成される」という考え方もある。
人種、文化によって感情の定義や反応パターンが違うとの考え方もある(タヒチ原住民には悲しいという感情はなかった?)
だから、感情・情動と表情は一致することは少ないとも考えられる。
よく、引き合いに出されるテニスのウィリアムス姉妹の妹が公式戦で初めて姉に勝った時のアップの表情は「苦悶」としか読めないもので、
全身を映して初めて「勝利の歓喜」の表情とわかる。表情だけでなく全身の情報を得ることでその表情がある文脈の中で判断できる。
マーケティングでは、こんな激しい感情・情動は扱わないとはいえ、表情分析は文脈依存性が強い。
これはコトバも同じで、単語は文脈の中で理解・納得されるのである。
以上の理由から、表情分析は今のところ、他の調査データの補強にしか使われていない。
ニューロデータと似て「ウソ発見器」として使えるとの意見もあるが、調査は捜査・裁判ではないので、ウソを見抜く必要のある場面は少ない。
おいしいと実感しているのにまずい、それほどでもないと答えなくてはいけない場面はリサーチの現場でもそうそうあるものではない。
もうひとつ、表情データ取得のときの個人情報の扱いもネックになっている。顔の画像は個人情報そのものである。
表情分析の活用にはこの個人情報問題もクリアする必要がある。
このようにいくつかの困難はあるが、表情分析の使いみちはいろいろ開発できそうである。
CMなどのフィルムを流して、どの場面(絵と音)でどういった感情・情動が高まりの変化はインタビューやアンケートでは測定できない。
この場合、脳波などニューロデータより表情データの方が適している。
対象者にヘッドギアをつけさせるより、カメラで表情を追うだけだから、負担が少ないのが優位点である。
ニューロデータの空間、時間解像度は、MRIでもEGGでも相当低いのに表情はほぼリアルタイムに観察できる。
サイトのA/Bテストにも活用できる。現在は滞在時間や遷移でA/Bの判定をしているが、結果の理由が表情分析で追える。
2020.12