連載:AI脳の創り方
Vol.8
ビジネスパーソンのための戦略的AI活用のキモ
28May

計算機(コンピューター)というものは計算を間違えたりしないものです。複雑な計算であっても人間のようにミスすることなく何千万回でも計算を繰り返し100%正しい答えを返してくれます。ところがこれがAIになると一転「100%正解することはありません」と言われるようになります。なぜでしょうか。
AIが“間違える”メカニズムとは
その理由のひとつとして、AIで扱うような画像や音声、文章のようなデータは完全に同じになることがないからというものがあります。画像であれ、お客様の話された文章であれ、何かしら少しずつ違うのが普通でしょう。
人間であればそうした違いがあっても、内容が同じであれば自然と同じデータとして認識できますが、計算機にとってはそうではありません。例えば、見た目はどう見てもパンダの画像であったとします。様々な動物の種類を判別してくれるAIにこの画像を入力すれば、これは『パンダ』であると正しい答えを返してくれます。
しかし、ここに人間の目にはノイズにしか見えないようなあるデータを加えて画像を作り直すと、その画像に対してAIが今度は『テナガザル』であると答えを返すようになってしまうということがあります。一体なぜ、そんなことになるのでしょうか…。
作り直された画像は人間が見れば、多少ノイズがのって画質が悪くなっただけで、相変わらず『パンダ』にしか見えません。しかし、AIにとってはそのノイズが重要な他の(この場合は『テナガザル』を示す)特徴に見えてしまったのです。
このように、AIにとってはちょっとしたデータの違いが大きな影響を与える場合があります。そのため、どれだけ学習をしても実際に100%正しい答えを返せるようにすることは非常に難しいのです。
人間が間違えればAIも間違える
もうひとつの理由は、そもそも正解がはっきりしない問題を解こうとしている場合が多々あるからです。例えば、コールセンターに入ってくる問い合わせ内容をAIに分類させようとする場合には学習データは過去に人が分類したデータを使うことになります。そのデータを使って学習を行ってみるとどうしても分類がうまくいかないので原因を調べていくと、人が分類したデータの方に問題がある場合が多々あります。
よくあるのが、実際の履歴には複数のトピックが含まれているが分類担当者はその中で一番メインになっていると思われるトピックを選んでいたり、とりあえず気づいたものを全てタグ付けしていたり、さらにそれが担当者ごとにやり方がばらばらであったりという状況です。
そうなると、そもそも人間がつけた分類結果のどれを信用していいのかがわからなくなります。さらに分類をやりなおそうとしても、『正しい分類の仕方』が曖昧であることに気づいてそれを決めることからやり直さなければいけないという事態が発生することもしばしばです。
こうした問題は特に問い合わせ内容の分類やVOC(顧客の声)の分類などで発生しがちで、往々にして何が正解なのかというのは誰も決められないということになりがちです。そうなると、人によって正解が違ってくるわけですから100%の精度を望むこと自体がナンセンスということになります。
AI脳の創り方「ビジネスパーソンのための戦略的AI活用のキモ」
前の記事 Vol.07 つまずきやすく対策が限定的なAIプロジェクトとの向き合い方
次の記事 Vol.09 ビジネスパーソンのための戦略的AI活用のキモ
PROFILE

株式会社 TMJ 営業統括本部 マーケティング推進本部 サービス推進部 Data Science推進室
小泉 敬寛(こいずみ たかひろ)
2008年より京都大学 工学研究科 助教としてウェアラブルメディア、コミュニケーションに関する研究を行う。2016年より株式会社TMJに入社。現職では統計処理や機械学習などの新技術に関する調査、研究・開発を担当。AIをはじめとする新規技術を使ったサービスやソリューションの提案やコンサルティングに取り組んでいる。