最初はリストラされたときに上司から「お前は何を言っているかわからない」から私のコミュニケーションへの興味始まった。
障害者枠で働く前に少し前に多少コミュニケーションの仕方を工夫した。キーワードから別の話に飛ぶところを抑え込む訓練、つまり失敗をできる限り隠す訓練をしました。
A「昨日の広島での打ち合わせ結果をまとめておいてくれ。」
私「そういえば、広島カープ負けが続いていますね。」
A「・・・」
正直こういうこともあった。
こういうミスを減らすため、わざとワンテンポ遅らせて話の流れを確認後発言するように心がけた。
こういうミスを減らすだけで、私のコミュニケーション力のなさを見つけられないようになった。まずはミスの削減からアプローチしました。
しかし仕事場ではまだまだ難しい問題に直面しました。
会社としては実験の一環だったのだろう。
お客様の営業に同行することになった。私がサービスの説明をするのだが、お客様に一方的に話すだけとなり、営業にあとで怒られることになった。
営業に下記の指摘を受けた。
お客様がまゆげの辺りが一部ぴくっとなったときにもっと緩急をつけて詳しく説明して欲しかった。ほかにも興味なさそうな目になったときは端折って欲しかった。もう少しお客様の欲しがるものを探そうよ。
恥ずかしいことかもしれないが、私には目や眉毛の動きを全く見ていなかった。
そこで今度はHOLOLENSをつけて相手の表情や顔と名前の一致を支援していただいた。
顔と名前の一致はかなり楽だった、相手の名前を今まで会話している間に思い出せなかったことは何回もあるからだ。
しかし表情の変化がわかるようになったのは新たな苦悩をもたらした。
表情の喜怒哀楽はわかるようになった。しかし、私の認知特性のせいか、HOLOLENSが通知したタイミングの前後5秒のどれが相手に影響を与えたのか全くわからないのだ。
通知する前に決まっているだろうという人もいると思うけど、通知に気が付くまでに若干時間がかかるため、通知後の5秒というのはリアルタイムではなく、会話が終わった後の分析結果としてわかるのだ。
表情がわかることで前後5秒にこだわることもさらなる問題をもたらした。今までできていた。会話の流れを無視した発言、矛盾している発言について気が付かなかったのだ。おそらく10秒に集中しすぎてしまった結果だろう。私の脳の処理はここらあたりが限界なのかもしれない。
結局HOLOLENSで怒りや悲しみの感情を通知してきたら、黙るという選択肢しか私には残らなかった。
AIで私の支援をするかどうかということも検討されたが、コンピュータのリソースとAI技術者の確保が難しいということで見送りとなった。
結局私の問題点は表情、会話、会話のトーンを結び付けて適切な会話をしていないということになった。
結局ぼろを出さないためにはできる限り話さないこと、ワンテンポ遅らせて考えてから発言することが最良の選択となった。
AIの進歩、コンピュータの進歩がもっと早く進むことを私は望んでいます。
私を助けてください。
0 件のコメント:
コメントを投稿