
拓海さん、最近部下から「計算モデルが重くて解析が回らないので代わりにメタモデルを作るべきだ」と言われまして、正直ピンと来ません。これって要するに何を置き換える話なんでしょうか。

素晴らしい着眼点ですね!大丈夫です、噛み砕いて説明しますよ。要点は三つです。第一に重い計算を速く回すために「安く動く代替モデル」を作ること、第二にその代替がどれだけ本物に近いかを測ること、第三に検証を効率化して無駄な試行を減らすことですよ。

なるほど、重いシミュレーターをそのまま使わずに代わりの関数を作る、と。で、どうやってその代替が信用できるかを判断するんですか。

いい質問です。ここで出てくるのがGaussian process(Gp)という手法です。仮に複雑な計算機モデルがあると、その出力を観測点で学習して、入力から出力を推定する統計モデルを作ります。検証は学習に使っていない点で予測精度を測る方法で、論文では特に効率的な検証点の取り方を探していますよ。

Gaussian processって難しそうな名前ですね。これって要するに「予測の不確かさも教えてくれる関数」てことですか。

素晴らしい理解です!その通りですよ。Gpは単に点を当てるだけでなく、どこが不確かなのかを数値で返すので、次にどこを試験すれば効率的かが分かります。経営判断で言えば、限られた試験コストを最大の改善につなげるための道具と言えますね。

それなら、学習のための最初のサンプル配置が肝心だと聞きましたが、どんな配置が良いんでしょうか。現場では手早く決めたいのです。

その通りです。ここでLatin hypercube sampling(LHS、ラテンハイパーキューブ)という方法がよく使われます。要は全体の空間を満遍なくサンプリングする工夫で、特にwrap-around L2 discrepancy(ラップアラウンドL2スキーマ)を最小化したタイプがGpには相性が良いと論文は示しています。要点は三つ、空間を均一に埋めること、Gpの不確かさを活用すること、検証点を賢く選ぶことですよ。

検証点の選び方が重要という話が気になります。うちのように試験が高価だと少ない検証点で確かめたいんですが、妥当ですか。

まさに論文が提案するポイントです。従来の無作為なテストサンプルでは小規模だと誤検証に陥りやすく、leave-one-out(LOO、逐次除外)検証も小データでは過度に楽観的になり得ます。そこで sequential validation design(逐次検証デザイン)というアルゴリズムで、既存学習点からの距離を最適化して検証点を選び、少ない点で真の予測性能を推定する手法を示していますよ。

ということは、うちのように実機テストが高い場合でも、賢く点を選べば検証コストを下げられると。これなら導入判断に使える気がします。

おっしゃる通りですよ。まとめると、良い初期設計(LHSの最適化)で学習をし、Gpの不確かさを見ながら検証点を逐次選ぶことで、コストを抑えて信用できるメタモデルが得られるのです。大丈夫、一緒に設計すれば必ずできますよ。

分かりました。要するに「学習点は満遍なく置き、検証点は賢く選べば、少ない試験で信頼できる代替モデルが作れる」ということですね。自分の言葉で説明するとそうなります。


