説明可能性の心理学的理論(A Psychological Theory of Explainability)

田中専務

拓海先生、最近部下から「AIの説明が重要だ」と言われるのですが、正直言って何が問題なのかピンと来ていません。要するに、我が社で使うAIの説明って何をどう良くすればいいんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、まずは結論を端的に言うと、説明可能性は「人がAIをどう理解し、どう判断を変えるか」を決めるもので、説明の作り方次第で現場の受け入れや誤解が大きく変わるんですよ。

田中専務

なるほど。それで今回の論文は何を新しく示したのですか。技術屋たちは「サリエンシーマップ(saliency map)だ」と言いますが、そのまま現場に出していいものか悩んでいます。

AIメンター拓海

サリエンシーマップは画像でよく示される「どこを見て判断したか」を可視化する説明で、それ自体は有用ですが、人がそれをどう読むかの理論が欠けていました。この論文は人が説明をどう解釈し、どんな誤解をするかを心理学的にモデル化した点が新しいんです。

田中専務

これって要するに、AIが示す説明と人の考えを比べて、人は「自分ならこう説明する」と投影して見る、ということですか?現場ではそれが原因で誤った判断が増えると。

AIメンター拓海

その通りですよ。素晴らしい整理です。論文では、人はまずAIが自分と似た判断をするだろうと仮定し、次にAIの説明を見て自分が作る説明と比較し、その類似度に基づいて信頼や予測を更新する、とモデル化しています。ポイントは三つあります:投影、比較、類似度による更新です。

田中専務

投影してしまうと、AIが本当は別の理由で判断していても、人は自分の理由で説明を補完してしまう、と。それなら社内で説明を用いるときの設計が重要になりそうですね。

AIメンター拓海

その通りです。現場導入で重要なのは、説明が誤解を助長しないように設計することです。説明の見せ方と併せて、ユーザーの初期考え(prior)をどう把握し、それに基づいた説明補助をどう行うかが鍵になりますよ。

田中専務

現場では時間も情報も限られています。実務で使える三つの要点でまとめていただけますか。どこから手を付ければ投資対効果が最大になりますか。

AIメンター拓海

大丈夫、一緒にやれば必ずできますよ。要点は三つです。第一に、ユーザーの初期期待(prior)を把握してそのギャップを明示すること。第二に、サリエンシーなどの視覚的説明を「比較のための基準」として整えること。第三に、説明が誤った一般化を生まないよう補助的な文言やガイドを付けること、です。

田中専務

よく分かりました。最後に自分の言葉で整理してもいいですか。要は、我々はまず現場の人がAIに何を期待しているかを確認し、その期待とAIの提示する説明を並べて示し、間違った読み替えが起きないよう注釈や手順を添える、ということですね。

AIメンター拓海

その通りですよ。素晴らしいまとめです。大丈夫、これで実務に落とせますよ。必要なら会議用の短い説明文も一緒に作れますから、一緒に進めましょう。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む