ソーシャル不安支援のための生成的AIチャットボットに対する態度と信頼 — Understanding Attitudes and Trust of Generative AI Chatbots for Social Anxiety Support

田中専務

拓海さん、最近部下から「生成AIを相談窓口に使えます」と言われて困っているんです。要するに、AIが人の悩みを聞いてくれて、現場の負担が減るという話でしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、順を追って整理しますよ。今回の論文は、特に社会不安(Social Anxiety, SA)を抱える人が、生成AI(Generative AI, GenAI)チャットボットにどれだけ信頼や好意を寄せるかを調べた研究なんです。

田中専務

なるほど。で、その研究で分かったことの肝は何ですか。現場に入れるか否かの判断材料にしたいのです。

AIメンター拓海

要点は三つです。第一に、症状が重い利用者はAIの非判断的な姿勢や共感的な応答を高く評価しやすい。第二に、症状が軽い利用者は技術的な信頼性や正確性を重視する。第三に、信頼は感情的な信頼(emotional trust)と認知的な信頼(cognitive trust)に分かれ、それぞれ設計上の示唆が異なるのです。

田中専務

これって要するに、重い悩みを持つ人にはAIの“寄り添い力”が効いて、軽い悩みや情報確認にはAIの“正確さ”が効くということ?

AIメンター拓海

その通りです!大丈夫、一緒にやれば必ずできますよ。設計ではまず誰に向けるかを決め、次に感情面と情報面のどちらを優先するかで対話方針を変える必要がありますよ。

田中専務

設計の話は重要ですね。ただ、現場で使うとなると「誤情報」「応答のばらつき」「境界の管理」も気になります。投資対効果はどう見ればいいのでしょうか。

AIメンター拓海

素晴らしい視点ですね!経営判断ならば三つの指標で評価できます。第一に安全性と誤情報対策のコスト、第二に導入による現場負荷低減の定量化、第三に満足度や再利用率による長期的効果です。まずは小さく試し、データで判断するのが現実的です。

田中専務

小さく試す、ですか。具体的にはどのような検証から始めれば良いですか。社内の相談窓口に一部導入するイメージでしょうか。

AIメンター拓海

はい、その通りですよ。まずは限定的な利用者群で感情的反応と情報正確性を評価し、必要なプロトコル(エスカレーション基準、説明責任)を整備します。大丈夫、できないことはない、まだ知らないだけです。

田中専務

わかりました。では社内向けに説明するために、要点を三つにまとめてもらえますか。

AIメンター拓海

もちろんです。第一に、利用者の症状に応じて“感情的信頼”と“認知的信頼”のどちらを重視するかを定めること。第二に、小規模で実証し、誤情報対策とエスカレーション手順を整備すること。第三に、効果を現場負荷軽減と利用継続性で定量評価することです。大丈夫、一緒にやれば必ずできますよ。

田中専務

ありがとうございます。では私の理解を整理します。要するに、重度の不安にはAIの寄り添いを試し、軽度のケースは正確性重視で使い分け、小さく試した結果で投資判断をする、ということですね。これなら説明できます。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む