3 分で読了
0 views

文脈パラメトリック反転:指示微調整が文脈依存性を悪化させる理由

(Context-Parametric Inversion: Why Instruction Finetuning Can Worsen Context Reliance)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近部下から「指示微調整を入れれば当社のAIはもっと現場の情報に従うようになります」と言われまして。本当にそうなるものですか?

AIメンター拓海

素晴らしい着眼点ですね!一般に、Instruction Finetuning (IFT) 指示微調整はユーザーの命令や入力文脈に従いやすくすることを目的としています。ところが最近の研究で、期待とは逆に文脈への依存が一時的に増えた後、むしろ減ってしまう現象が見つかっているんですよ。

田中専務

それは困りますね。うちの現場は紙のマニュアルや現場の測定値を入れれば判断が変わる場面が多い。要するに指示を与えてもモデルが自分の“記憶”を優先してしまうということでしょうか?

AIメンター拓海

大丈夫、一緒に整理しましょう。ここで重要なのはLarge Language Models (LLMs) 大規模言語モデルが持つ二つの情報源です。一つはParametric Knowledge (パラメトリック知識)、すなわち事前学習で内部に蓄えた“記憶”で、もう一つがUser-provided Context (入力文脈)、つまりその都度与えられる情報です。

田中専務

それなら最初から指示微調整すれば文脈を優先してくれるんじゃないかと思っていたのですが、違うんですね。現場で入力した値よりも昔の“常識”を優先するなら事故にもつながりかねません。

AIメンター拓海

その不安、的を射ていますよ。研究はまずInstruction Finetuningが初期段階では文脈依存性を高めることを観察しましたが、さらに微調整を続けると文脈依存性が低下する、つまりContext-Parametric Inversion(文脈–パラメトリック反転)と呼べる現象が出ると報告しています。

田中専務

どうしてそんなことが起きるのですか。指示を学ばせているのに逆行するなんて、学習データに問題があるのでしょうか?

AIメンター拓海

良い質問です。要点を三つにまとめるとこうです。第一に、Instruction Finetuningデータには文脈を使う例だけでなく事前学習で学んだ知識を単に問う例も混じっていること。第二に、そうした事例はモデルをパラメトリック知識に引き戻す圧力を生むこと。第三に、これが進むと文脈と内部知識の

監修者

阪上雅昭(SAKAGAMI Masa-aki)
京都大学 人間・環境学研究科 名誉教授

論文研究シリーズ
前の記事
(L0, L1)スムーズ関数の勾配法による最適化
(Optimizing (L0, L1)-Smooth Functions by Gradient Methods)
次の記事
予測不確実性の情報理論的尺度について
(On Information-Theoretic Measures of Predictive Uncertainty)
関連記事
脳卒中と腫瘍進行の説明可能な深層学習フレームワーク
(An Explainable Deep Learning Framework for Brain Stroke and Tumor Progression via MRI Interpretation)
タスク類似性が逐次学習を決める―入力特徴と出力
(readout)の組合せが鍵(Disentangling and mitigating the impact of task similarity for continual learning)
確率モデルによるサポート回復の限界
(Limits on Support Recovery with Probabilistic Models: An Information-Theoretic Framework)
エッジ人工知能と6Gの展望、実現技術、応用
(Edge Artificial Intelligence for 6G: Vision, Enabling Technologies, and Applications)
積み重ねネットワークが物理情報学習を変える
(Stacked Networks Improve Physics-Informed Training)
合成データと実データのギャップを知る
(KNOWING THE DISTANCE: UNDERSTANDING THE GAP BETWEEN SYNTHETIC AND REAL DATA FOR FACE PARSING)
関連タグ
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む