16Jul

AIはどこまで感情を解析できるのか。データの解析をさせれば、AIに人間が及ばないことはもはや周知の事実だ。だが、感情の解析となると、まだまだAIも人間にはかなわない…。ぼんやりながらもそうした印象はあるのではないだろうか。
コールセンター・バックオフィス(事務処理センター)の構築・運営を行う セコムグループの (株) TMJ (本社:東京都新宿区、代表取締役社長: 丸山 英毅 、以下 TMJ )は 、 音声感情解析 AI を開発する(株)Empath ( 本社:東京都渋谷区、代表取締役 CEO :下地 貴明)と、 バーチャル・アシスタント搭載の感情解析コールセンター AI を共同開発。 TMJ 内での製品導入と共に、今秋の販売化を目指している。
同製品は、オペレータ用画面では、オペレータの発話内容 から感情をリアルタイムで解析。その結果 から 「褒め」「励まし」「慰め」など をバーチャル・アシスタントがその表情で 通話 状況を客観的に評価、サポートを行う。管理者 用の 画面では、オペレータのパフォーマンスがカルテ化され、一覧で確認が可能となっており、レポート作成の手間を短縮できる。さらに、個人の感情推移をビジュアル確認でき、 オペレータ ケアの充実と即時性を高める。
では、オペレータの発話内容から感情を解析するとはどういうことなのか。やはり、内容をテキスト化し、言語解析するのか…。例えば「すいません」と言ったとする。この言葉は、状況により、詫びの場合もあれば、感謝の場合もある。内容だけでの判断はかなり困難といえる。実は、その判断は内容でなく、抑揚などの言い方を材料にしている。心理学でもコミュニケーションの9割以上は、非言語が占めることが分かっており、判別要素として、言葉以外の感情解析は有効なのだ。
その上で、同製品は膨大な音声データから「感情」をスコアリング。その結果を基に発話内容を「喜び」「平常」「怒り」「悲しみ」の4つ感情にAIがリアルタイムで判定する。強い口調なら詫びで、やわらかい口調なら感謝といった具合だ。発話内容を言語処理せず、抑揚でみることにより、製品を多言語対応できるメリットもある。
気になる精度は、当然ながら音声を正しく拾えるかがポイントとなる。従って、マイク(インカム)から直接拾うオペレータの音声についてはかなり精度がよく、顧客の声は電話越しの音の影響もあり、正しく判定しないことが多いという。こうしたことから、活用はオペレータの声を判定する=オペレータ支援の要素を高めているのが現状となっている。
コールセンター業務は基本、声のみの対応で、そこには感謝もあればクレームもある。ベテランでもかなりの神経を使う業務であり、やり取りが可視化されることはそれだけでも大きな安心感を生み出す。実際、使用したオペレータの同製品への評価は上々で、総じて「安心感が高まっている」とコメントしている。また、管理者が画面で同時に見ているため、「見守られている」安心感もあり、不安なく業務を進めることができるようだ。
コールセンター業務におけるAI活用は着々と進んでいるが、TMJでは他社との優位性について次のように説明する。「巷のAIが、(自動化的な)デジタル寄りのソリューションに対し、人の感情に寄り添う対応がお客様・オペレータ、それぞれに可能となることで、コンタクトセンターとしての本質を高める取り組みが、今後期待できると考えています。当社としても、もちろん自動化ソリューションは高めていきますが、『更に』の要素が加わったことは大きく、良い意味で『人』の要素を大事にする方針を、強められると期待しています」(TMJ経営本部 経営企画部広報チーム・泉重年氏 )。
問い合わせや感謝、クレームなど、AIでスムーズに対応させることはある程度までは可能だ。だが、言葉とは裏腹の意図が込められていることももちろんある。だからこそ、感情に着目し、それに合わせた対応をすることは顧客満足度の向上の観点からも重要になる。コールセンターにおけるAI活用は今後、さらに加速することは必至だが、「感情解析」がその重要なキーワードになっていきそうだ。