4 分で読了
1 views

微調整中の忘却に関するスケーリング則

(Scaling Laws for Forgetting during Finetuning with Pretraining Data Injection)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海さん、最近うちの若手が「微調整で元の知識が消えます」なんて言い出して困っているんですが、要するに何が問題なんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。簡単に言うと、元のモデルが持っていた一般知識を、狭い分野のデータで学び直すうちに忘れてしまう現象ですよ。

田中専務

なるほど。で、それを防ぐ手立てというのが「事前学習データを混ぜる」ということですか?具体的にどの程度混ぜればいいんでしょう。

AIメンター拓海

素晴らしい質問ですよ!結論を先に言うと、研究ではわずか1%程度の混合(pretraining data injection)でも忘却抑制に効果があると報告されています。ポイントは三つ、モデル規模、微調整データ量、混合比率です。

田中専務

これって要するに、モデルが大きいか小さいかと、うちが持っているデータ量と、あと混ぜる元のデータの割合を調整すれば良いという理解で合っていますか。

AIメンター拓海

その理解でほぼ正しいですよ。もう少し砕くと、(1) 大きなモデルほど忘れにくい傾向がある、(2) 微調整データが少ないと過学習しやすい、(3) 少量の事前学習データ混合が忘却を抑える、の三点が要点です。一緒にやれば必ずできますよ。

田中専務

実務的には費用対効果が気になります。混ぜるデータを用意して運用に回すコストと、得られる効果は釣り合うんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!投資対効果を考えるなら三つの観点で評価します。導入コスト、運用コスト、そしてモデルが失う「汎用性」による将来コストです。小さな混合比率で大きな効果が得られるなら費用対効果は良好ですよ。

田中専務

じゃあ試験導入は小さく始められそうですね。現場の人間にやらせる場合、何をモニタすればよいですか。

AIメンター拓海

重要なのは三点です。ターゲット領域の検証損失(validation loss)で性能変化を見ること、事前学習データに対する損失で忘却を測ること、そして実務KPIで実際の事業効果を測ることです。これらを合わせて判断すれば良いんです。

田中専務

よくわかりました。これって要するに、小さな割合で元のデータを混ぜつつ、モデルサイズやデータ量に応じて調整すればリスクを抑えつつ効果が出せる、ということですね。

AIメンター拓海

その通りですよ。大丈夫、一緒に規模感を決めて、段階的に導入すれば必ずできます。まずは小さく試して観測することから始めましょう。

田中専務

分かりました。自分の言葉でまとめると、小さな割合で事前学習データを混ぜれば、狭い分野に寄せても元の幅広い知識を保てる。まずは1%程度から様子を見る、ですね。

論文研究シリーズ
前の記事
スケーラブル差分プライベートベイズ最適化
(Scalable Differentially Private Bayesian Optimization)
次の記事
設計入力によってトランスフォーマーモデルを確証的に圧倒する
(Provably Overwhelming Transformer Models with Designed Inputs)
関連記事
選択的特徴再エンコード型量子畳み込みニューラルネットワークと結合最適化による画像分類
(Selective Feature Re-Encoded Quantum Convolutional Neural Network with Joint Optimization for Image Classification)
ハードウェア制約付き早期終了ニューラルネットワークのためのニューラルアーキテクチャ探索
(NACHOS: Neural Architecture Search for Hardware Constrained Early Exit Neural Networks)
発達ロボティクスと身体化されたAIからみたロボット倫理に関する考察
(Ideas from Developmental Robotics and Embodied AI on the Questions of Ethics in Robots)
個別ノード選択と外部注意による人間相互作用認識
(Learning Adaptive Node Selection with External Attention for Human Interaction Recognition)
余白に刻まれた手書き文字を掘り起こす:エンドツーエンドの手書きテキスト検出と認識
(Uncovering the Handwritten Text in the Margins: End-to-end Handwritten Text Detection and Recognition)
フロントエンド適応型 HuBERT:歪み不変の堅牢な音声認識のための隠れユニットBERTの訓練
(FAT-HuBERT: FRONT-END ADAPTIVE TRAINING OF HIDDEN-UNIT BERT FOR DISTORTION-INVARIANT ROBUST SPEECH RECOGNITION)
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む