説明可能なAI手法の有用性と使いやすさを橋渡しする研究(Towards Reconciling Usability and Usefulness of Explainable AI Methodologies)

田中専務

拓海先生、最近部下から「説明可能なAI(Explainable AI)が大事だ」と聞きまして、しかし現場に導入しても本当に役立つのかが見えなくて困っています。要するに何が変わるんですか?

AIメンター拓海

素晴らしい着眼点ですね!説明可能なAI(Explainable AI、略称 XAI、説明可能性を持つAI)とは、AIの判断の理由を人が理解できるように示す考え方です。今回の論文は、説明の「有用性」と「使いやすさ」を両立できるかを調べた研究で、結論を先に言うと「同じ説明でも、誰にどう見せるかで効果が全く変わる」ことを示していますよ。

田中専務

それは直感的でわかりやすいですね。ただ、具体的にどんな違いを見たんですか。うちの現場では数字を出せと言われるのに、見た目重視の説明が出ても意味がありません。

AIメンター拓海

いい質問ですよ。研究では複数の「説明モダリティ(explanation modality、説明様式)」を比較しています。たとえば図で見せる説明、数値で示す説明、振る舞いを要約する説明などです。肝は三点で、誰に(ユーザー特性)、どんな場面で(状況)、どの形式で(モダリティ)見せるかを設計することです。大丈夫、一緒に整理すれば必ず使える形にできますよ。

田中専務

これって要するに、同じ中身でもお客さんや担当者に応じて見せ方を変えないと無駄になる、ということですか?

AIメンター拓海

まさにその通りです!説明は変換作業であり、受け手に合わせて表現を最適化しないと情報が伝わらないんです。研究は231名の実験データを用いて、どの説明が誰にとって使いやすく、かつ実際にAIの判断を模倣(simulatability、模倣可能性)できるかを検証していますよ。

田中専務

231名で検証した、とは説得力がありますね。しかし現場の導入を考えると、工数やコストが気になります。導入の優先順位はどう決めればよいでしょうか。

AIメンター拓海

良い問いですね。まずは目的の明確化が必要です。説明で何を達成したいのかを三点で整理します。1) 信頼を高めたいのか、2) 現場の判断支援に使いたいのか、3) 法的な説明責任を満たしたいのか。目的によって必要な説明の形式とコストが変わります。大丈夫、優先順位はこの三点から判断できるんです。

田中専務

なるほど。最後に、現場で即使える実務的な一歩を教えてください。小さく始めて効果を確かめる方法があれば安心です。

AIメンター拓海

大丈夫、一緒にできますよ。まずは三つの小さな実験を勧めます。1) キーパーソンを決めて説明の受け手モデルを作る、2) 二種類の説明(図式と数値)を同じ判断に対して並べて見せ、どちらが現場で使えるか評価する、3) 評価は”模倣テスト(simulatability test)”で行い、現場の人がAIの判断を再現できるかを検証することです。これだけで導入の方針がかなり明確になりますよ。

田中専務

分かりました。つまり「誰に何を伝えるか」を先に決めて、小さな比較実験で確かめる。それで結果が良ければ本格導入、だと理解しました。まずは社内でその形で進めてみます。ありがとうございました、拓海先生。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む