
拓海先生、最近うちの若手が「ラテラルシンキングをモデルで評価する論文がある」と騒いでまして。正直、横文字でよく分からないのですが、経営判断に関係ありますか?

素晴らしい着眼点ですね!ラテラルシンキング、つまり横方向の発想は、既存のルールだけでは解けない問題を解く力です。今回の論文は画像ベースのパズルを使って、その力をAIに評価する仕組みを提案しているんですよ。

それは要するに、普通のクイズとは違って「ひらめき」や「発想の転換」を試すということでしょうか。うちの現場で言えば、慣習や手順で対応できない時にどうするか、の評価に似ていますか?

まさにその通りです!簡潔に言うと、3点に集約できますよ。1) 視覚情報を組み合わせて意味を作る力、2) 常識に頼らず別方向の答えを選ぶ力、3) 人が直感的に解ける領域をAIがどこまで再現できるか、を測っているんです。

なるほど。現場で使うなら、AIが単にデータを当てはめるだけではなく、図や記号の意味を読み替える力が必要だと。で、その評価方法はどういうものなのですか?

この研究は「リバス(rebus)パズル」を使います。リバスは絵や記号を組み合わせて言葉や熟語を表すものです。研究者は大量のテキストとアイコンを組み合わせた多肢選択問題を作り、AIが正答を選べるかを測っているのです。

それは面白いですね。ただ、うちのようにデジタルが得意でない組織だと、AIがそんな「ひらめき」を示してくれたらどう評価すれば良いのか迷いそうです。

ご心配な点ですね。評価のポイントは三つで整理できます。1) 人間とAIの正答差、2) AIが説明文を生成した時の抽象度、3) 定型化されていない誤りの傾向です。これを見れば、単に正答率だけでなく「どう間違うか」も分かるのです。

これって要するに、AIが単にデータを当てはめるだけでなく、我々のように『意図を読み替える』能力を持っているかどうかを確かめるということですか?

その通りです!そして面白いのは、最先端のビジョン・ランゲージモデル(vision-language models、VLMs ビジョン・ランゲージモデル)は人間に近い部分もあるが、説明を人手で付けると性能が上がる点です。すなわち、人が抽象化した説明を与えるとAIはうまく利用できるのです。

要は、AIに『現場の文脈』や『人間の抽象化』を渡してあげると、より実務に役立つということですか。うちも導入時は専門家が説明を整備する必要があると。

まさにその通りです。大丈夫、一緒にやれば必ずできますよ。まずは小さな業務でルールと例外の両方を整理し、AIに渡す「説明テンプレート」を作ることから始めましょう。

分かりました。ではまずは弊社の現場で一つ、形式化しやすい業務を選んで試してみます。自分の言葉で整理すると、ラテラルを測るテストは「AIが人間の直感的ひらめきを模倣できるか」を図るもの、という理解で合っていますか。

完璧です!大丈夫、拓海が付き添えば必ずできますよ。まずは一緒に評価セットを作り、AIの回答と説明を検討して、改善のサイクルを回していきましょう。
