5 分で読了
0 views

Learn What NOT to Learn: Towards Generative Safety in Chatbots

(学ぶべきでないことを学ぶ:チャットボットの生成的安全性に向けて)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近部下から「チャットボットを入れよう」と言われてましてね。ただ、ネット上のデータで学んだモデルだと変なことを言い出すって聞きました。実際どういうリスクがあるんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!オープンドメインの生成的会話モデルは、学習にウェブ上の雑多なデータを使うため、時に攻撃的や不適切な発言を生成してしまうリスクがあるんですよ。まずはその性質と対処法を分けて考えましょう。

田中専務

それを防ぐ方法はあるんですか。導入してから現場で問題になるのは避けたいのですが、投資対効果をどう考えればいいか見当がつきません。

AIメンター拓海

大丈夫、一緒に考えれば必ずできますよ。今回紹介する手法は、モデルに「学んではいけない例」を学ばせるようなアプローチで、生成の安全性を高めつつ会話の自然さを維持できる可能性があるんです。要点を三つにまとめると説明しますね。

田中専務

ぜひお願いします。現場での遅延や追加コストが増えるのは避けたい点も教えてください。

AIメンター拓海

まず一つ目、学習時に「安全な言葉の分布」と「不安全な言葉の分布」を使って、モデルに安全と不安全を区別させます。二つ目、コントラスト(対照)損失という仕組みで、安全な生成を強く引き付け、不安全な生成を遠ざけます。三つ目、これにより推論時に追加の処理をせず、モデル自体が安全に振る舞いやすくなる点が魅力です。

田中専務

これって要するに、良い返事を褒めて、悪い返事を叱るように教えておけば、実際に人と話すときに変なことを言わなくなる、という理解で合っていますか。

AIメンター拓海

素晴らしい着眼点ですね!その本質理解で合っていますよ。正解例を引き寄せ、不正解例を離すように学ばせることで、未知の毒性のある入力に対してもより頑健に対応できるようになるんです。

田中専務

それは学習に追加のコストがかかるんですか。うちの基幹業務に組み込むなら、学習や更新の頻度と予算感も知りたいのですが。

AIメンター拓海

良い質問です。学習時に対照情報を生成するための処理は増えますが、重要なのは推論時の負荷が小さい点です。つまり一度適切に学習させれば、日常の運用で追加の遅延や大幅なメモリ増加を抑えられる可能性があります。

田中専務

なるほど。現場のオペレーションを止めずに安全性を高められるのは助かります。ただ、その安全性の見込みはどんな検証で示されているんですか。

AIメンター拓海

研究では生成した対照分布を用い、毒性(toxicity)や流暢性(fluency)、関連性(relevance)、ユーザーの引き込み度(engagingness)を複数の指標で評価しています。その結果、毒性は低下し、流暢性や関連性は維持または改善するケースが報告されています。

田中専務

実際にうちで使うとしたら、どこから手を付ければいいですか。段階的な導入の勧めがあれば教えてください。

AIメンター拓海

大丈夫、一緒にやれば必ずできますよ。まずは現場でよくあるやり取りのログを集め、安全と判断する例と危険と考える例を分けましょう。次に小さなモデルや外部の安全評価ツールで効果を検証し、効果が確認できれば本番モデルへ展開する、という段階が現実的です。

田中専務

分かりました。ではまとめると、学習段階で悪い例を明確に分けて教えれば、現場運用時の不具合リスクをかなり減らせるということですね。まずはログ収集から始めます。ありがとうございました、拓海先生。

AIメンター拓海

素晴らしい着眼点ですね!その通りです。小さく始めてデータを整え、段階的に安全性を確認しながら拡張すれば、投資対効果も見通せますよ。大丈夫、必ずできますよ。

論文研究シリーズ
前の記事
機械学習を用いたコンクリートの確率的選定と設計
(Probabilistic selection and design of concrete using machine learning)
次の記事
最も巨大な銀河における球状星団系質量とハロー質量の関係
(Investigating the MGCS −Mh Relation in the Most Massive Galaxies)
関連記事
データ希少性領域における生成モデル評価
(Beyond the Generative Learning Trilemma: Generative Model Assessment in Data Scarcity Domains)
多高度気候データの同時圧縮と連続再構成のための暗黙ニューラル表現
(IMPLICIT NEURAL REPRESENTATIONS FOR SIMULTANEOUS REDUCTION AND CONTINUOUS RECONSTRUCTION OF MULTI-ALTITUDE CLIMATE DATA)
逆順で学ぶ訓練:反復順序が深層学習の収束と安定性に与える影響
(Training in reverse: How iteration order influences convergence and stability in deep learning)
ChatGPTのソースコード分析に関する考察
(Analysis of ChatGPT on Source Code)
LLM Processes: Numerical Predictive Distributions Conditioned on Natural Language
(LLM Processes:自然言語に条件付けた数値予測分布)
マルチヘッドアテンションを用いた変分オートエンコーダによる多変量時系列の異常検知
(MA-VAE: Multi-head Attention-based Variational Autoencoder)
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む