5 分で読了
4 views

Balancing Continuous Pre-Training and Instruction Fine-Tuning: Optimizing Instruction-Following in LLMs

(継続的事前学習と指示微調整の最適化)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近“LLM”とか“継続的事前学習”って話が社内で出てきましてね。現場からは「最新の知識を持ったAIを早く入れろ」と言われているのですが、どこから手を付ければよいのか見当がつきません。そもそも、どれが重要なんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、一緒に整理すれば必ずできますよ。結論から言うと、最新知識を取り込む継続的事前学習(Continuous Pre-Training; CPT)と、ユーザーの指示に従う力を強める指示微調整(Instruction Fine-Tuning; IFT)は両方とも重要ですが、どこを更新するかでコストと効果が大きく変わるんです。

田中専務

それは要するに、どのモデルに継続学習させるかで運用コストと性能が変わるということですか。うちのように予算が限られている会社は、どのやり方が現実的でしょうか。

AIメンター拓海

素晴らしい着眼点ですね!ポイントは3つです。1つ目に、ベースモデル(Base LLM)に継続学習を行うと最新知識が入りやすいこと、2つ目に、指示微調整済みモデル(Instruction-refined LLM)は指示に従う力を持つが継続学習でその力を失うことがあること、3つ目に、指示微調整は手間と注釈データが必要でコストが高いことです。投資対効果を考えるなら、まずベースモデルを更新し、その後必要に応じて選択的に指示微調整する戦略が実用的ですよ。

田中専務

なるほど。で、指示に従う力を失うというのは具体的にどういう現象ですか。例えば、以前はきちんと業務手順に沿って答えてくれたのに、更新後に変な答えを返すということがあるのですか。

AIメンター拓海

その通りです。継続的事前学習(CPT)は新しいデータを取り込むが、過去に学んだ“指示に従うやり方”が薄れることがあるんです。これは機械学習で言う「忘却(catastrophic forgetting)」に似ていて、重要な行動方針が更新で上書きされるためです。だから指示能力を維持したいなら、再び指示微調整(IFT)をかけるか、別の手段で指示能力を保つ工夫が必要になるんです。

田中専務

指示微調整には注釈データが大量に必要だと聞きまして、うちでやるのは現実的ではない気がします。これって要するに、最新情報を入れるには大金がかかるということですか。

AIメンター拓海

素晴らしい着眼点ですね!完全にその通りではありません。指示微調整(IFT)は確かに注釈付きデータを多く使うと高精度になるが、研究では必ずしも大量のIFTが常に必要ではないことが示されています。具体的には、ベースモデルをまず継続学習で最新化してから、限られた注釈で再び指示適合させるとコスト効率が良いという結果があるんです。つまり段階的にリソースを配分すれば現実的に導入できるんですよ。

田中専務

なるほど。うちの場合はまずは社内の製造ノウハウや製品情報を新しく反映させたいのですが、その際にどのくらいの頻度で更新すればいいとか、手順としてどう進めれば投資対効果が出やすいのでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!順序としては三段階を勧めます。第一に、ベースモデルに対して定期的な継続的事前学習(CPT)を実施して最新知識を注入すること。第二に、その結果を検証する小規模な業務テストを実施し、指示能力が低下していないかを確認すること。第三に、実業務で必要な部分だけ選んで限定的に指示微調整(IFT)を実施すること。これで費用を抑えつつ実効性を高められるんです。

田中専務

要するに、まずはベースを更新して様子を見て、使えるところだけに限定して追加投資する段取りにすれば無駄が少ないということですね。よく分かりました。では最後に、今日の話を私の言葉でまとめさせてください。

AIメンター拓海

大丈夫、素晴らしい総括になりますよ。一緒に構えていけば、必ず実行できますよ。

田中専務

本日の要点はこうです。まずはベースの大規模言語モデル(Large Language Model; LLM)を継続的事前学習で最新化し、コストを抑えながら知識を更新する。次に、現場での挙動を小さく検証してから、必要な部分だけ指示微調整(Instruction Fine-Tuning; IFT)を行う。この段取りであれば投資対効果が見える形で進められる、という理解でよろしいでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!まさにそのとおりです。田中専務のまとめはそのまま会議でも使えるレベルです。大丈夫、一緒にやれば必ずできますよ。

監修者

阪上雅昭(SAKAGAMI Masa-aki)
京都大学 人間・環境学研究科 名誉教授

論文研究シリーズ
前の記事
言語モデルにおける注意の吸い込み現象の出現
(WHEN ATTENTION SINK EMERGES IN LANGUAGE MODELS: AN EMPIRICAL VIEW)
次の記事
サンプル平均Q学習の漸近解析
(Asymptotic Analysis of Sample-averaged Q-learning)
関連記事
学習したパラメータ事前分布による非同所データの共変量シフト緩和
(Mitigating covariate shift in non-colocated data with learned parameter priors)
気候の複雑さを解きほぐす:方法論的洞察
(Untangling Climate’s Complexity: Methodological Insights)
限られた資源でのAUV動力学モデリング:不確実性を活用した効率的なオンライン学習
(Modeling of AUV Dynamics with Limited Resources: Efficient Online Learning Using Uncertainty)
キャッチアップ蒸留:一度の訓練で高速サンプリングを達成する手法
(Catch-Up Distillation: You Only Need to Train Once for Accelerated Sampling)
トランスフォーマー:注意機構のみで学ぶ
(Attention Is All You Need)
人間とAIの嗜好に基づく協同による問題解決
(Problem Solving Through Human-AI Preference-Based Co-operation)
関連タグ
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む