10 分で読了
2 views

LLMは有害性と拒否を別個に符号化する

(LLMs Encode Harmfulness and Refusal Separately)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近の論文で「LLMは有害性と拒否を別個に符号化する」と聞きましてね。現場に導入する際にどこを気を付ければいいか、ざっくり教えていただけますか。

AIメンター拓海

素晴らしい着眼点ですね!端的に言うと、モデルは「これは有害かどうか」を内心で判断する場所と、「拒否(ユーザーに断る)」とを別々で持っているんですよ。だから見かけだけで判断すると誤解が生じますよ。

田中専務

ええと、要するにモデルが「断る」理由と「危ないと感じる」理由は別物、ということですか?これって要するにモデルが嘘をついているようにも見えますね。

AIメンター拓海

いい質問です!モデルは嘘をついているのではなく、内部で二つの信号を別々に処理しているだけなんです。例えるなら、現場の作業員が危険と感じても、上司の判断で作業を中止するかどうかは別に決めるようなものですよ。大事な点は三つです:内部判断の存在、判断の位置(処理されるタイミング)、そして外に出る振る舞いは別物であること、です。

田中専務

なるほど。現場判断と最終判断が違うのと同じですね。では、実務でどうチェックすればいいですか。見た目の拒否応答だけを信用してはいけない、ということですか。

AIメンター拓海

大丈夫、一緒に整理しましょう。まずはモデルがどのタイミングで「有害性(harmfulness)」を内部的に表現しているか、どのタイミングで「拒否(refusal)」を出しているかを理解する必要があります。論文では、指示の最後のトークン(t_inst)で有害性が、シーケンスの最後(t_post-inst)で拒否が主に符号化されると示されていますよ。

田中専務

けど、それって技術屋さんの検査方法ですよね。我々のような現場はどう確認すればいいでしょう。投資対効果を考えると、無駄に厳しく拒否されるのは困ります。

AIメンター拓海

その懸念、素晴らしい着眼点ですね!実務上は三つの方策が取れますよ。第一に、拒否が出たとき内部判断(有害性に関する指標)がどうなっているかを技術者に確認すること。第二に、拒否方向(refusal direction)ではなく有害性方向(harmfulness direction)に着目した評価データを用意すること。第三に、拒否ポリシーを現場のリスク許容度に合わせて設計すること。これらで無駄な拒否を減らせます。

田中専務

それで、もしモデルが無駄に拒否しても内部では「これは無害だ」と分かっているケースがあると。これって要するに外面の挙動だけで信頼してはいけない、ということですね。

AIメンター拓海

その通りです。技術的には、隠れ状態の特定の方向に『ステアリング(steering)』することで、モデルが入力を有害だと“認識する”かどうかを確かめられます。興味深いのは、有害性の方向に沿って操作するとモデルの内部判断が変わりうるが、拒否の方向に沿うと外部の出力が拒否に変わるだけで、内部判断が反転しないことが多いという点です。

田中専務

分かりました。では最後に私の言葉で要点を確認します。モデルは内部で『有害か』を判断する信号と『拒否するか』を決める信号を別々に持っている。だから表面的な拒否だけで信用せず、内部判断の指標も合わせて見て、運用ポリシーを現場向けに調整する必要がある、ということで宜しいですか。

AIメンター拓海

素晴らしい要約です、田中専務!まさにその通りですよ。大丈夫、一緒に実践していけば必ずできますよ。


1. 概要と位置づけ

結論を先に述べると、本研究は大規模言語モデル(Large Language Models、LLMs)が「有害性(harmfulness)」という内部的概念と「拒否(refusal)」という出力行動を別々に符号化していることを示した点で革新的である。これにより、表面的な拒否応答だけをもってモデルの安全性判断とする運用は不十分であり、内部表現を評価・制御する設計が求められるという実務的示唆を与える。まず基礎的な違いを押さえ、その上で応用面での意味合いを明確にする。

背景として、従来はモデルの拒否挙動がそのまま有害性の内部表現であると仮定されることが多かった。しかしこの仮定が誤ると、無駄な拒否で業務効率を落としたり、逆に有害と認識されているのに出力が通ってしまうリスクが生まれる。本研究は、その誤解を正し、運用者が見るべき指標を示した点で価値がある。経営判断で言えば、見かけのレポートだけで意思決定することへの注意喚起である。

本研究では、入力系列のうち指示の最後のトークン位置(t_inst)とシーケンスの最終位置(t_post-inst)を比較し、有害性が主に前者に、拒否が主に後者に符号化されることを示した。これにより、モデルの「内心」と「外面」を分離して評価できる手法が提示された。後続セクションでは、先行研究との差別化、技術的要素、検証方法と結果、議論、今後の方向性を順に説明する。

2. 先行研究との差別化ポイント

先行研究の多くは、モデルの拒否方向(refusal direction)を抽出してこれを操作することでモデルを「 jailbreak 」できることを示してきた。こうした手法は実用的である一方、拒否方向の操作が必ずしもモデルの有害性判断の反転を意味しない可能性が残されていた。本研究はこの盲点を突き、有害性と拒否が別々の方向性として潜在表現に存在することを実験的に示した点で差別化される。

具体的には、前提として「隠れ状態(hidden states)には意味のある概念が埋め込まれている」という立場をとる。本研究は隠れ状態をクラスタリングや線形方向の抽出で解析し、有害な指示と無害な指示がt_instで別のまとまりを作る一方、t_post-instでは拒否と非拒否の分離が顕著であることを示した。この二段構えの観察は、従来の一方向モデルに対する重要なカウンターエビデンスとなる。

実務的には、単純に拒否の頻度を下げれば安全性が損なわれると考えるのは早計である。なぜなら拒否が少なくても内部的に有害性が検出されていれば、出力制御を別の層で施し運用可能だからだ。逆に拒否が出ても内部判断が無害であれば、ユーザビリティ向上のために拒否ポリシーの再設計が可能である。これが本研究の差別化された貢献である。

3. 中核となる技術的要素

本研究の技術的核は、隠れ状態のある方向を「有害性方向(harmfulness direction)」と「拒否方向(refusal direction)」に分離して抽出し、それぞれを操作して因果的影響を検証した点にある。抽出には隠れ状態のクラスタリングと線形差分ベクトルの算出を用い、t_instとt_post-instという位置依存の分析視点が導入されている。これにより、位置依存的な概念分離が可能になった。

さらに、抽出した方向に沿った「ステアリング(steering)」操作を行うことで、因果的効果を検証している。具体的には、有害性方向に沿って隠れ状態を流すと、元は無害な入力が有害と解釈されるようになる一方、拒否方向に沿って操作すると直接的に拒否応答が増えるが内部の有害性判断を反転させないことが示された。つまり出力への影響と内部表現の変化は必ずしも同義ではない。

技術的にはこれが意味するのは、監査・評価のためには単なる出力テストだけでなく隠れ状態のプロービング(probing)やクラスタリングによる内部評価が有用であるという点である。実務で言えば、モデルの“腹の中”を見るための技術指標を組み込む必要がある。

4. 有効性の検証方法と成果

検証は複数の言語モデルに対して行われ、t_instおよびt_post-instでの隠れ状態を用いたクラスタリング分析、方向ベクトルの算出、そしてその方向に沿った操作による出力・内部表現の変化を比較した。成果として、t_instでのクラスタリングは有害/無害の区別が明確に現れ、t_post-instでは拒否/非拒否の区別が強く現れた。これが一貫して観察された点が説得力を高めている。

因果性の確認としては、ある方向に沿ったステアリングが入力の解釈を変え得ること、別の方向は主に出力行動(拒否)を変えるにとどまることが示された。これにより、運用上は出力の拒否だけでなく内部の有害性信号を監視・制御することが安全性確保に寄与するという実証が得られた。

また、本検証はモデルごとの挙動差も示唆しており、一律の安全ポリシーではなく、モデル固有の隠れ状態の構造を踏まえたチューニングが求められるという実務的結論に至る。投資対効果の観点では、初期に内部評価の仕組みを導入することで運用時の誤拒否を削減し、結果として現場の効率改善につながる可能性が高い。

5. 研究を巡る議論と課題

本研究は有益な示唆を与える一方で、いくつかの議論と限界もある。第一に、隠れ状態の方向性抽出は線形近似に依存しており、非線形に埋め込まれた概念の検出が不十分な可能性がある。第二に、モデルやタスクによって符号化パターンが異なるため、一般化にはさらなる検証が必要である。第三に、隠れ状態を用いた監査は技術的コストがかかるため中小企業での実装の壁が存在する。

倫理的・運用上の議論としては、内部表現に対する操作や監査がどこまで許容されるかという問題がある。特に外部のステークホルダーや規制当局に対して透明性を担保しつつ、モデルの安全性を高める設計が必要だ。運用では、拒否ポリシーと内部監査の結果を組み合わせた運用ルールを定めることが現実的である。

6. 今後の調査・学習の方向性

今後は非線形手法や階層的なプロービングを用いた検証、異なるアーキテクチャや多言語領域での一般化試験が求められる。さらに、実運用に耐える形での軽量な内部監査指標の設計、そして企業のリスク許容度に応じた拒否ポリシーの自動調整メカニズムの研究が重要である。最後に、モデルの内部表現に関する外部監査のための標準化も長期的課題として残る。

検索に使える英語キーワード:LLMs harmfulness refusal directions, t_inst t_post-inst hidden state probing, steering hidden states, representation clustering, internal safety mechanisms

会議で使えるフレーズ集

「表面的な拒否応答だけで安全性を判断してはいけません。内側の有害性信号も確認する必要があります」

「モデルの拒否は出力行動であって、内部判断と必ずしも一致しない点に注意しましょう」

「初期投資として内部評価の仕組みを入れると、誤拒否の削減で運用コストを下げられる可能性があります」


参考文献:Zhao J., et al., “LLMs Encode Harmfulness and Refusal Separately,” arXiv preprint arXiv:2507.11878v1, 2025.

論文研究シリーズ
前の記事
多言語命令追従ベンチマークの提案 — Marco-Bench-MIF: On Multilingual Instruction-Following Capability of Large Language Models
次の記事
巧緻で身体性を持つロボットマニピュレーションへの展開と課題
(The Developments and Challenges towards Dexterous and Embodied Robotic Manipulation: A Survey)
関連記事
アカウント優先エンジンで売上拡大を解き明かす
(Unlocking Sales Growth: Account Prioritization Engine with Explainable AI)
マルチビュー・ラプラシアンSVM
(Multi-view Laplacian Support Vector Machines)
三角格子における反強磁性イジング模型の基底状態の実験的実現
(Experimental realization of the ground state for the antiferromagnetic Ising model on a triangular lattice)
異種入力空間を統合する多精度サロゲート─レーザ指向性エネルギー堆積における溶融池のモデリング
(Multi-fidelity surrogate with heterogeneous input spaces for modeling melt pools in laser-directed energy deposition)
片頭痛について知っておくべき4つのこと
(Four Things People Should Know About Migraines)
非線形情報ボトルネック
(Nonlinear Information Bottleneck)
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む