LLM

11463
  • 論文研究

ゼロショット極端マルチラベル分類のためのインコンテキスト学習枠組み(ICXML: An In-Context Learning Framework for Zero-Shot Extreme Multi-Label Classification)

田中専務拓海先生、最近うちの若手から「極端マルチラベル分類」って論文がすごいらしいと聞きまして、正直何が変わるのかよく分かりません。うちの現場で本当に使えるんでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、まず要点だけ結論から言うと、今回の技術はラベル数がとてつもなく多い場面

  • 論文研究

LLMに「わかりません」と言わせる訓練手法(R-Tuning: Instructing Large Language Models to Say ‘I Don’t Know’)

田中専務拓海さん、最近の論文で「モデルにわからないと答えさせる」って話を聞きました。うちの現場でも変な答えを出されて困っているので、その実務上の意味を教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!簡潔に言うと、この研究はモデルが「知らないときは知らない」と正直に答えるよう

  • 論文研究

Sociodemographic Prompting is Not Yet an Effective Approach for Simulating Subjective Judgments with LLMs(人口統計学的プロンプトは主観的判断の再現にまだ有効でない)

田中専務拓海先生、最近部下から『LLMに属性を指定して評価をさせれば現場の意見を再現できる』って聞いたんですが、本当に現場の多様な判断を再現できるものなんでしょうか。導入コストや効果が気になって仕方ないんです。AIメンター拓海素晴らしい着眼点ですね!結論から言うと、まだ万能ではありません

  • 論文研究

パラメトリック知識の外側にある質問に対するLLMの不確実性表現(Examining LLMs’ Uncertainty Expression Towards Questions Outside Parametric Knowledge)

田中専務拓海先生、お忙しいところ恐れ入ります。最近、部下から『大きな言語モデル(LLM)に任せるとミスが怖い』と言われまして、結局現場で変な答えを出すことがあると。要するに信用できるかどうかを見極める方法ってありますか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう

  • 論文研究

HuatuoGPT-IIによる医療向け大規模言語モデルのワンステージ適応(HuatuoGPT-II, One-stage Training for Medical Adaption of LLMs)

田中専務拓海先生、最近部署で『医療に特化したAI』を入れる話が出ましてね。そもそも大きな言語モデルって何が違うんでしたっけ。うちの現場で使うにあたって、一番気になるのは効果とリスクです。AIメンター拓海素晴らしい着眼点ですね!大きな言語モデル、いわゆるLarge Language Mod

  • 論文研究

投影前整列による統一視覚表現の学習(Video-LLaVA: Learning United Visual Representation by Alignment Before Projection)

田中専務拓海さん、最近うちの若手が「画像と動画を同時に扱えるモデルがすごい」って騒いでいるんですが、正直ピンと来ません。要するに何が変わるんですか。AIメンター拓海素晴らしい着眼点ですね!端的に言うと、画像と動画を同じ“言葉の空間”に揃えてから教えると、AIが両者を同時に理解できるように

  • 論文研究

より多くのサンプルかより多くのプロンプトか?少数例インコンテキスト学習における有効手法の検討(More Samples or More Prompts? Exploring Effective Few-Shot In-Context Learning for LLMs with In-Context Sampling)

田中専務拓海先生、最近部署で『プロンプト』とか『少数ショット』って話が出てきましてね。正直、何をどうすれば投資対効果が出るのか全然わからないんです。今回の論文は何を教えてくれるものなんでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、田中専務。要点を先に言うと、この研究は「同じ

  • 論文研究

テキスト・ウォーターマーク一群の下流トレードオフ(Downstream Trade-offs of a Family of Text Watermarks)

田中専務拓海先生、最近部下から「生成AIはウォーターマークを入れるべきだ」と言われまして、どういう効果があるのか全体像を教えていただけますか。そもそもウォーターマークって要するに何なんでしょうか。AIメンター拓海素晴らしい着眼点ですね!ウォーターマークとは、生成した文章に検出可能な微かな

  • 論文研究

SUQLによる構造化・非構造化データの会話型検索(SUQL: Conversational Search over Structured and Unstructured Data with Large Language Models)

田中専務拓海さん、AIを現場に入れる話が出ているんですが、どこから手を付ければいいのか見当がつきません。最近よく聞くLLMって現場で何ができるんでしょうか。AIメンター拓海素晴らしい着眼点ですね!Large Language Models (LLMs)(大規模言語モデル)には文書の要約や

  • 論文研究

人間は依然勝つ:ドメイン特化型アノテーション作業におけるアクティブラーニングの実証研究 (Human Still Wins over LLM: An Empirical Study of Active Learning on Domain-Specific Annotation Tasks)

田中専務拓海先生、最近部下から『LLMでラベル付けを自動化してコスト削減できる』と言われているのですが、本当に人の手を減らして大丈夫でしょうか。現場の専門知識が必要な案件が多くて心配です。AIメンター拓海素晴らしい着眼点ですね!大丈夫、心配はもっともです。最近の研究では、巨大言語モデル(