現代機械学習では多い方が良い(More is Better in Modern Machine Learning: When Infinite Overparameterization is Optimal and Overfitting is Obligatory)

田中専務

拓海先生、最近部下が「大きいモデルにして過学習させた方がいい」と言ってきて困っているのですが、要はリスクを取って大きく投資すればいいということでしょうか。

AIメンター拓海

素晴らしい着眼点ですね、田中専務!簡潔に言えば、本論文は「もっと大きく、もっと多くのデータを使うほど良い」という直感を理論的に裏付けているのです。ポイントは三つありますよ。

田中専務

三つですか。まずは一つ目、具体的に何が分かったのですか。

AIメンター拓海

第一に、ランダムフィーチャー回帰(Random Feature Regression、RF回帰)という簡潔なモデルで、特徴量の数を増やすほどテスト誤差が下がると示されています。つまり幅を広げると性能が良くなる、ということですね。

田中専務

これって要するに、モデルをどんどん大きくすれば良いということ?それで現場の運用コストが上がっても利益が出ると。

AIメンター拓海

本質はそう単純ではないですが、近い理解です。重要なのは最適なリッジ正則化(ridge penalty)を調整することと、データ量も増やすことの組合せで性能が上がる点です。要点は三つ、幅(モデルの大きさ)、データ量、正則化の最適化です。

田中専務

二つ目、過学習(overfitting)が必然だとありましたが、それは現場的にどういう意味でしょうか。過学習は普通は悪だと教わりました。

AIメンター拓海

素晴らしい着眼点ですね!本論文のポイントは、一部のタスク、特に固有値が冪乗則(powerlaw eigenstructure)に従う場合、訓練誤差を限りなく小さくすることが近似的に不可欠だということです。言い換えれば、訓練でほぼゼロの誤差まで到達しないと良い一般化性能が得られない場面があるのです。

田中専務

三つ目は何でしょうか。実際の画像などのタスクでも当てはまるのですか。

AIメンター拓海

はい。第三に、論文は実データ、特にコンピュータビジョンの標準タスクに対しても実験を行い、ニューラル・タングント・カーネル(Neural Tangent Kernel、NTK)や畳み込みカーネルがこの冪乗則に類似する振る舞いを示すと報告しています。つまり理論モデルが実務にも示唆を与える可能性があるのです。

田中専務

つまり、投資対効果を考えるなら、大きなモデルと十分なデータ、そして最適な正則化の三つを同時に設計する必要があるということですね。

AIメンター拓海

その通りです、田中専務!要点三つを再掲すると、1)モデル幅を大きくすること、2)データ量を増やすこと、3)リッジなどの正則化を適切に調整すること、これらを事業判断でバランスさせると良いです。大丈夫、一緒にやれば必ずできますよ。

田中専務

分かりました。自分の言葉で確認しますと、結局は「大きくして、データを集めて、正則化をうまく調整すれば、たとえ訓練で過学習しても実務での性能は上がる場合がある」という理解で合っていますか。

AIメンター拓海

素晴らしい着眼点ですね!その理解で正しいです。では次は、もう少し論文の中身をセクションごとに整理して解説しましょう。忙しい経営者のために要点は三つに絞って進めますよ。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む