人工知能の存在論に向けた課題(Challenges for an Ontology of Artificial Intelligence)

田中専務

拓海先生、最近社内でAIって言葉だけが一人歩きしてまして、現場からは導入の声、私のところには投資対効果の説明を求められているんです。正直、何をもってAIと呼ぶのか、何が変わるのかが分からないままだと判断できません。まずは要点だけ、わかりやすく教えていただけますか?

AIメンター拓海

素晴らしい着眼点ですね!簡潔に始めますと、本論文は「そもそもAIとは何か」を問う存在論の議論を扱っています。結論を先に言うと、AIの定義が変わり続けることと、人が道具を当たり前に感じる性質、そして人間が物に人間的な性質を与える傾向が、議論を難しくしているんですよ。

田中専務

要するに定義が変わっちゃうから、導入してもすぐに「それはAIじゃない」とか「ただの自動化だ」と言われかねないと。経営判断としては非常に困る話ですけど、それって要するに判断基準が流動的ということですか?

AIメンター拓海

その通りですよ。まず第一点は、Artificial Intelligence (AI) 人工知能という言葉の範囲が時代とともに広がったり狭まったりする点です。昔は難しいと考えられたことが、普通のソフトウェアになれば「それはAIじゃない」と言われるようになる。経営の観点では、何を『革新』と呼ぶかを社内で定義することが重要になります。

田中専務

なるほど。では二点目と三点目というのはどういうことですか。現場に導入したときの不満や抵抗感と関係ありますか。実行可能性とリスクをちゃんと把握したいのですが。

AIメンター拓海

良い視点ですね。第二点は、ある技術が普及して“普通”になると、その技術がもはやAIと認識されなくなる傾向です。つまり市場や顧客の期待が変わる。第三点は、人間がシステムに対して人間らしい性質を投影する傾向、いわゆる擬人化で、これが倫理や責任の議論を複雑にします。

田中専務

擬人化というのは、現場での誤解や過度な期待につながると。例えば、ルールベースの仕組みをまるで人が考えているかのように誤解する、という話でしょうか。

AIメンター拓海

まさにその通りです。人は道具に物語を与えがちで、すると責任や期待が歪む。これにより導入後の説明責任や運用ルールが曖昧になるため、経営としては運用フェーズの設計と説明戦略が不可欠になります。要点を整理すると三つ、定義の流動性、普及による概念の変化、擬人化による期待と責任の歪み、です。

田中専務

これって要するに、技術そのものを見る目を固定せずに、市場や人の見方も含めて経営判断しないと後で困る、ということですか?

AIメンター拓海

完璧なまとめです。経営は技術だけでなく、その技術がどう見られるか、どう説明されるかまでセットで判断すべきです。大丈夫、一緒にやれば必ずできますよ。最後に会議で使える要点を三つにまとめます。第一に定義と目標を社内で共有すること。第二に導入後の運用ルールと説明責任を明確にすること。第三に外部の技術者と継続的に連携すること、です。

田中専務

分かりました。では私の言葉で言い直すと、AIを導入するなら「何をAIと呼ぶか」「現場で普通だと思われない価値」「導入後の説明責任」をセットで見ないと投資が無駄になりかねない、ということですね。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む