LLM

3302
  • 論文研究

文書のレイアウトを意識したプロンプト設計(LAPDoc: Layout-Aware Prompting for Documents)

田中専務拓海先生、お忙しいところすみません。最近、社内の書類をAIで読み取らせて自動処理したいという話が出ているのですが、単にテキストを読み込ませれば良いのか、それともレイアウト(版面)を考慮する必要があるのかで意見が分かっております。要点を教えていただけますか。AIメンター拓海素晴らし

  • 論文研究

生成と表現の命令チューニング(Generative Representational Instruction Tuning)

田中専務拓海さん、最近社内で「生成と埋め込みの両方が同時にできるモデル」って話を聞きましてね。正直、生成というのは文章を作ることで、埋め込みというのは検索で使う数値化のことくらいしか分かりません。これって要するに弊社が持つ製品情報をうまく検索しつつ、説明文も自動で作れるということなんでしょうか。

  • 論文研究

DE-COP:言語モデルの学習データに著作権保護コンテンツが含まれているかを検出する方法(DE-COP: Detecting Copyrighted Content in Language Models Training Data)

田中専務拓海先生、最近「学習データに自社の著作物が使われているか」を調べる研究があると聞きました。うちの製品マニュアルも心配でして、ざっくり要点を教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!大丈夫です、一緒に整理しましょう。結論から言うと、DE-COPは「LLMが訓練で

  • 論文研究

BUSTER: a “BUSiness Transaction Entity Recognition” dataset(BUSTER: 企業取引エンティティ認識データセット)

田中専務拓海先生、最近部下から「このBUSTERってデータセットが業務で使える」と聞きまして、正直ピンと来ないのですが、要するに何が新しいのでしょうか。AIメンター拓海素晴らしい着眼点ですね!BUSTERは企業の取引に関する文書から、取引当事者や金額などの重要項目を自動で見つけ出すための

  • 論文研究

多語表現トークナイザによるシーケンス圧縮(Multi-Word Tokenization for Sequence Compression)

田中専務拓海さん、最近部下が「トークナイザを工夫すれば計算コストが下がる」と言ってきて、正直ピンとこないんです。要するに文章を短くするってことですか?AIメンター拓海素晴らしい着眼点ですね!概念としてはその通りです。今回の研究はMulti-Word Tokenizer(MWT) 多語表現

  • 論文研究

対話生成におけるインコンテキスト学習の効果 — 優れたプロンプトか対話例か?(Crafting a Good Prompt or Providing Exemplary Dialogues? A Study of In-Context Learning for Persona-based Dialogue Generation)

田中専務拓海先生、最近「インコンテキスト学習」という言葉をよく聞くのですが、これって我々の業務にどんな意味があるのでしょうか。現場で役に立つなら投資を検討したいのですが、まずは簡単に教えてくださいませ。AIメンター拓海素晴らしい着眼点ですね!インコンテキスト学習(In-Context L

  • 論文研究

LLMベース推薦のためのフェデレーテッドフレームワーク(A Federated Framework for LLM-based Recommendation)

田中専務拓海先生、お忙しいところ失礼します。最近、役員会で「LLMを使った推薦システムをプライバシーを保ちながら導入しよう」という話が出まして、少々焦っております。これって本当に現場で使える技術なのでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、最近の研究で「個人データを守り

  • 論文研究

UNDIAL: Self-Distillation with Adjusted LogitsによるLLMの堅牢な忘却(UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models)

田中専務拓海先生、最近社員から「モデルに記録された情報を消せる技術がある」と言われまして。しかし現場では個人情報管理が一番の関心事です。要点を手短に教えてもらえますか。AIメンター拓海素晴らしい着眼点ですね!簡潔に言うと、UNDIALは「モデルが覚えてしまった特定の語や情報を安全に目立た

  • 論文研究

高効率LLM推論のための量子化対応インターリービングと競合回避カーネル(QUICK: Quantization-aware Interleaving and Conflict-free Kernel for efficient LLM inference)

田中専務拓海先生、お忙しいところ失礼します。部下から『AIを早く入れろ』と言われているのですが、どこから手をつければ良いか見当がつかず、特に推論の速度やコストが心配でして。AIメンター拓海素晴らしい着眼点ですね、田中専務!まず安心してください。今回ご紹介する研究は、既存の大規模言語モデル

  • 論文研究

診断誤りを減らすための可解釈リスク予測(Towards Reducing Diagnostic Errors with Interpretable Risk Prediction)

田中専務拓海先生、最近うちの現場でも「AIで診断支援を」と若手に言われまして。けれど電子カルテ(EHR)に情報が多すぎて、逆に見落としが増えているとも聞きます。結局この論文は何を示しているのですか?投資に見合う効果は期待できますか。AIメンター拓海素晴らしい着眼点ですね!結論を先に言うと