公平な判断基準と思われがちのAIの真相とは

導入の課題でもあるAIの判断基準の最新の研究について

menu

×AI

連載:AI脳の創り方

Vol.15

ビジネスパーソンのための戦略的AI活用のキモ

AIが人間のように判断すること、にも危険がある

AIが人間のように判断すること、にも危険がある

前回は「AIの判断は人間のそれとは違う」というお話をいたしました。今回は逆に、AIが人間と同じような判断ができるようになるという性質自体が問題になる場合がある、というお話をいたします。それは、人間が持っている偏見などがそのまま真似をされて結果に影響してしまう場合です。AIは機械的な判断を常に行えるためにその時々の感情によらず公平な判断を行えると思われがちです。しかし、学習に使われるデータに最初から「偏り」がある場合にはAIも常に偏った判断に基づいた結果を返すことになります。そうしたAIに判断を任せてしまうと、その偏りは誰かの気づきによって修正されることなく、むしろその傾向をより強くしていく恐れがあります。

AIは「判断結果が適切かどうか」を判断しない

特に問題になっているのは性別や人種、国籍による差別がAIによって強化されてしまうことです。こうした差別は最近でこそ様々な場面で意識されて是正が始まっていますが過去のデータにはその影響が強く出てしまっているものがあります。

例えば、社内で出世していく優秀な人材を発見するためのAIを作ろうとすると、多くの企業では男性が優位に選ばれるようなAIができてしまう可能性があります。本来はこうしたAIではその人の能力を公平に見て「引き立てるに足る人物かどうか」の判断をすることが期待されているはずです。ところが、実際には「男性という性別の人」が活躍しやすい社会であった、女性より男性の方がより出世しやすいという事例が多かった、という傾向ばかりがAIの判断基準に組み込まれてしまうという可能性があるわけです。そうするとAIは執務能力ではなくそうした結果をより強く反映した判断を行ってしまいます。このAIが一度人事システムに組み込まれてしまえば、そこから先は、能力ではなく男性か女性かという差がより強くキャリアに影響した結果ばかりになり、しかもその傾向は年を追うごとにどんどん強く学習されていってしまいます。

人間の第三者がAIの判断を監視できる仕組みが必要

こうした問題はAIを広く活用するための課題として認識されており、AIをブラックボックスではなくその判断根拠を人間が説明できるようにしたり、AIが公平な判断が出来るようにするための研究が進められています。技術的なところではそうした研究成果が種々の問題を解決していくでしょう。一方でこれらの問題は導入するユーザー側が正しく理解していれば防げることも多いはずです。

AIはどんどん使いやすくなってきており、それに伴い広く社会で使われるようになってきています。しかし、多くのAIは人間の過去の判断を真似しているだけでその判断の根拠を人間と同等に理解しているわけではありません。その判断結果が正しいのかどうかを見ているわけでもありません。AIというと自動化を目的に導入されることが多いために、そのままAI任せにされることも決して少なくないと思われます。その危険性は、もう言うまでもないでしょう。AIだからこそ常に人がチェックできる仕組みを作ることや、判断結果が本来の趣旨に沿っているのかどうかを検証し続けることがより必要とされるのです。

AI脳の創り方「ビジネスパーソンのための戦略的AI活用のキモ」
前の記事 Vol.14 AIは人間のように判断する、と思ったら大間違い

PROFILE

小泉 敬寛

株式会社 TMJ 営業統括本部 マーケティング推進本部 サービス推進部 Data Science推進室

小泉 敬寛(こいずみ たかひろ)

2008年より京都大学 工学研究科 助教としてウェアラブルメディア、コミュニケーションに関する研究を行う。2016年より株式会社TMJに入社。現職では統計処理や機械学習などの新技術に関する調査、研究・開発を担当。AIをはじめとする新規技術を使ったサービスやソリューションの提案やコンサルティングに取り組んでいる。

関連記事