新型コロナ禍でテレワークが急速に普及しビデオ会議を多くの人が使いこなすようになりました。
デジタル化でコミュニケーション・スキルは少しずつ変化しています。
今後、顔認識技術の影響で、アバターを使いこなすスキルが必要になりそうです。
ビデオ会議のコミュニケーションスキル
新型コロナ禍で社内外との打ち合わせにビデオ会議を多用するようになりました。
会場に人を集めて行っていたセミナーも、ウェビナー(Web上で1対多のリアルタイム配信)化が進みました。
おそらく今、多くの人が、対面のときとは違ったコミュニケーションスキルを使っています。
どんな変化に対しても適応の早い人はいて、そんなアーリーアダプタをみて多くの人が追随します。
最初はビデオ会議ができることだけで精一杯だった人たちも、こんなことをしているはずです。
- TPOに応じて自分の背景画像を変える(風景写真、資料、ロゴ等)
- 自分の顔をデコレーションする、アバターにする
- 拍手アイコンなどで明示的にフィードバックを返す
- カメラやマイクを質の良いものに変える
顔色を読み取りたいのによくわからない、感情を伝えたいのに伝わっているかわからない。
リアルの対面に対して情報が足りないことがこうした行動を促しています。
極端な話、リアルの対面で相手の顔色を読んだりするのが苦手な人の方が、ビデオ会議で困らないのかもしれません。
逆に従来のスキルに頼りたい人にとってはもどかしくストレスなはずです。
一方でリアルの対面に活かせる気付きもあります。
他人が聞く自分の声が自分の思っている声と違うのと同様、顔の表現にもギャップがあります。
私は自分の顔がウィンドウに表示されるようになって初めて、にこやかに話しているつもりの自分が思っていた以上に仏頂面であることに気付き、しっかり表情に出すことを意識するようになりました。
つまり受信・発信のスキルにゲームチェンジが発生しています。
ライトマン博士の読心術
10年ほど前の米国ドラマ『ライ・トゥ・ミー 嘘は真実を語る』を観た人もいると思います。
2022.6現在、アマゾンプライムで第1話のみ無料で視聴できるようです。
”人間ウソ発見器のカル・ライトマン博士は、人々の表情や無意識な動作を研究する世界的に有名なウソを暴くプロ。”
精神行動分析学者のライトマン博士が「微表情」と呼ばれる一瞬の表情や仕草から本音を見破り事件解決につなげる話です。実はこの話は実在の人物ポール・エクマン博士をモデルにしていて、フィルム写真とビデオテープ時代からの数十年に及ぶ「微表情」研究の成果を参考にしています。
目が笑っていない、愛想笑い、我々も普段経験で気付くものもありますが、訓練されたプロは本人も自覚しない表情筋の一瞬の変化から隠そうとしている感情を見抜けるそうです。
デジタルカメラでは顔検出してピントを合わせたり、笑顔を検出して撮影したりしますが、この「微表情」も何か応用できなかいと思って読んでみたのが、「顔は口ほどに嘘をつく 河出書房新社」(ポール・エクマン 著) でした。
7つの感情(悲しみ、怒り、驚き、恐れ、嫌悪、軽蔑、喜び)が万国共通の顔の表現を持ち、感情表現が学習されるものではなく普遍的であることを発見し、未解明な感情表現もあるとしながらも
- 基本的感情に対する反応は人種や文化に依存しない
- 表情は複数の感情表現の組み合わせで理解ができる
- 情動反応の時間差により1/50秒で消失する反応や感情を自覚することで生じる反応がある
- 声の変化を加味することで把握精度が上がる
など、具体な事例と表情筋の関連が書かれています。
この本は研究成果の話だけでなく、それを知って相手の感情に気付くこと、自分自身の感情にも意識を向けてセルフコントロールすることで幸せな人間関係を築くことを奨励しています。
ドラマも本も大変面白いのですが、すでにプロダクトに応用できる時代になっていました。
ソフトウエアの登場
この研究に基づくと思われるソフトウエアはすでに登場しています。
例えば、CAC社が2016年から販売する感情認識AI「Affdex」のSDKがあります。
数年前、心センサーのセミナーに参加し、にこやかに原稿を読み上げるデモ、に私もトライさせて頂いたことがあるのですが、この時も自分は笑顔で話しているつもりが全くの低スコアで大変ショックを受け、3回目でやっと合格になった記憶があります。
その後SDKのバージョンもだいぶ上がって機能性能アップしているようです。
クラウドでも AWS、Azure の顔認識AIの機能群の中で数種類の感情スコアが提供されています。
Amazon RekognitionのAPIはDetectFacesで8種類の感情スコアを検出できる。
(HAPPY:幸せ、SURPRISED:驚き、CONFUSED:困惑、ANGRY:怒り、DISGUSTED:うんざり、CALM:穏やか、FEAR:恐れ、SAD:悲しみ)
感情分析の根拠、汎用性にはまだ課題があるとしても、応用の仕方によってはとても有益なアプリケーションが実現できると思います。
ビデオ会議への応用
ビデオ会議を契機に自分の表情に意識が向いた(以前はその意識なかった)のは私にとってはコミュニケーションの進歩なので、自分をモニターする機能は有望ではと考えていました。
「いいですね!」と笑顔で言っておきながら、別の感情が混じっていることを自覚できたら、
「あ、自分では口ではそう言っておきながら、心からそう思えていないのか」と内面に気付けます。
しかし、考えてみると、同じことが相手の映像に対しても出来たら、怖いツールになります。
誰かがプレゼン中に自分が賛同しているかどうかが相手に分かってしまう、自分がプレゼン始める前から相手が嫌悪していることが分かってしまうのはどうなのか。
リアルの対面であれば対人スキルによって読み合っていたものが、間にデジタル通信が入ることによって、対人スキルの優劣に関係なく、平等にばれてしまうのは好都合なのか不都合なのか。
上司が自分の表情認識をOFFにさせて部下の表情認識だけをONにするのはパワハラか。
そもそも人が相手の顔色を読み合うのは許せて、AIで読み取ったらダメなのはなぜなのでしょうか?
笑顔インジケーターで練習するのは良いです。誰も傷つかない。
しかし微表情を盗まれるとなれば、自分で自分の表情を管理しなければならなくなります。
応用が進みだすとやっかいな問題になるのは明らかです。
結果として、私はいずれみんなアバターになってしまうと思うようになりました。
メタバースのアバターではなく、通常のビデオ会議においても素顔を出さなくなるのではないか。
自分の表情をフィルターし、自分の意図した表現をさせるアバターの使いこなしスキルが要るようになるのではないかと。
ところが・・・数日前、Microsoft Azure の顔認識技術に関して提供機能を制約する発表がされました。
「Microsoft、性別や感情を解析するAI顔認識ツールのAzureでの提供を停止」
鋭いツールは諸刃の剣になり得ます。
現時点の感情認識AIはまだ微表情を読み取る能力はありませんが、それでも世の中は今の段階でリスクを大きく評価しました。
同じ問題はARグラスのようなものにも生じています(見ている相手の感情を読む等)。
レギュレーションとの駆け引きによって、技術的には可能でも、汎用のサービスに応用されるには時間がかかることが見えてきました。
まだアバターに頼らずに済みそうですね。
「Zoom疲れ」というけれど
テレワークの環境が整って離れてコラボできるようになった反面、「Zoom疲れ」などの弊害が取り沙汰されました。
諸説が飛び交いましたが、どれも公平な比較になっていません。
疲れの原因と対策の仮説をたくさん作り、自社サービスはいかにそれらを解決しているかをアピールするサービス会社のマッチポンプに乗せられています。
(表情を読みこそしませんが、どのサービスも、ユーザーの利用傾向はAnalyticsで把握しています。)
普通に仕事をしていてまともな会議を(対面で)1日に3回もやったらヘトヘトです。
移動時間がないからといって、一日に5回も6回もビデオ会議に繋いで疲れない方がおかしいです。
在宅疲れを言うならば、「通勤疲れ」をなぜ今まで真剣に取り上げないのでしょうか?
慣れれば当たり前になるであれば、テレワーク環境も同じことです。
オチのない話になってしまいましたが・・・
いずれにせよ、後戻りすることなく、新しいツールならではの新しいコミュニケーションスキルを見つけていきましょう。
メッセンジャーやスタンプ、チャットも既に浸透しました。
結局は、アバターもその一つになっていくでしょう。
以上
参考図書:(Amazon)
「顔は口ほどに嘘をつく 河出書房新社」(ポール・エクマン 著)
初版が2006年、私が購入したのが2016年(第11刷)。
残念ながらKindle版がなく、印刷本も在庫なし(中古商品のみ)のようです。