LLM

11463
  • 論文研究

マイクロスケーリング形式を用いた大規模言語モデルの事後学習量子化(Post Training Quantization of Large Language Models with Microscaling Formats)

田中専務拓海さん、最近うちの若い者から『LLMを落としてコスト削減を』とよく聞くのですが、結局何をどうすればモデルを軽くできるのか、実務的な観点で教えてくださいませんか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。まず結論を3点にまとめますと、1) 事後学習量子

  • 論文研究

ロボット技能の報酬学習を大規模言語モデルで自己整合的に学ぶ — Learning Reward for Robot Skills Using Large Language Models via Self-Alignment

田中専務拓海先生、お忙しいところ失礼します。最近、部下から「大規模言語モデル(LLM)を使ってロボットに仕事を教えられるらしい」と言われまして、正直ピンと来ないのです。結局それは現場で役に立つのか、投資に値するのか教えてくださいませ。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に

  • 論文研究

ランダム化試験に外部実世界データを組み合わせた平均処置効果の適応的TMLE — Adaptive-TMLE for the Average Treatment Effect based on Randomized Controlled Trial Augmented with Real-World Data

田中専務拓海先生、最近社内で「RCTに実世界データを組み合わせて効率を上げる」という話が出ています。要するに臨床試験に外部データを足して試験を小さく早くできるようにするという話でしょうか。ですが、現場ではバイアスが怖くて導入に踏み切れない、と聞いております。実際どこがポイントなのでしょうか。

  • 論文研究

InsightNet:顧客レビューからの構造化インサイト抽出(InsightNet: Structured Insight Mining from Customer Feedback)

田中専務拓海先生、最近部下が"顧客レビューを自動で分析して改善に使えるようにしよう"って言うんですが、正直ピンと来ないんです。これって本当に投資に見合うんでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、これから一緒に整理していけば投資対効果が見えてきますよ。まずはこの論文が何

  • 論文研究

オンラインプラットフォームにおけるヘイトスピーチ拡散者の特定(Identifying Hate Speech Peddlers in Online Platforms — A Bayesian Social Learning Approach for Large Language Model Driven Decision-Makers)

田中専務拓海先生、最近社内で「AIでネットの悪質投稿を見つけろ」と言われて困っております。これ、本当に現場で使えるのでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理すれば必ずできますよ。今回の論文は、LLMを「センサー」として使い、連続する意思決定者が順に学ぶ仕組み

  • 論文研究

言語モデルは自分の分類挙動を説明できるか?(CAN LANGUAGE MODELS EXPLAIN THEIR OWN CLASSIFICATION BEHAVIOR?)

田中専務拓海さん、最近若手に『LLMが自分の判断を説明できるか』って論文が話題になってると聞きました。正直、何が問題でどう役立つのか、ピンと来ません。要するに現場で何が変わるということですか?AIメンター拓海素晴らしい着眼点ですね!簡単に言えば、言語モデルが“なぜそう答えたか”を自分の言

  • 論文研究

複数プロンプトと選択式集約を活用したMCS-SQL(MCS-SQL: Leveraging Multiple Prompts and Multiple-Choice Selection For Text-to-SQL Generation)

田中専務拓海先生、最近社内でText-to-SQLという話が出てきまして、現場から「自然文でデータベースに問い合わせできる」と。正直、何が変わるのか掴めていません。要するに現場のExcelマクロの代わりになるということでしょうか。AIメンター拓海素晴らしい着眼点ですね!Text-to-S

  • 論文研究

クロスソース生物医学概念リンクのためのPromptLink(PromptLink: Leveraging Large Language Models for Cross-Source Biomedical Concept Linking)

田中専務拓海先生、今日は論文の要点を教えてください。うちの現場で使えるか、投資対効果を知りたいのです。AIメンター拓海素晴らしい着眼点ですね!今回の論文はPromptLinkという仕組みで、LLMs(Large Language Models、LLMs・大規模言語モデル)を賢く使って生物

  • 論文研究

戦略的データ並べ替え:カリキュラム学習による大規模言語モデル性能向上(Strategic Data Ordering: Enhancing Large Language Model Performance through Curriculum Learning)

田中専務拓海先生、最近部下から『学習データの順番を工夫すればモデルが賢くなる』って聞きまして。これって現場で活きますか?投資対効果が気になってまして。AIメンター拓海素晴らしい着眼点ですね!要するにデータの渡し方を工夫して、学習を簡単なところから始める手法です。ポイントは三つで、準備負担

  • 論文研究

NOISEBENCH:実データラベルノイズが固有表現認識に与える影響(NOISEBENCH: Benchmarking the Impact of Real Label Noise on Named Entity Recognition)

田中専務拓海先生、お忙しいところすみません。うちの部下が「ラベルの誤りがAIの性能を大きく下げる」と言うのですが、具体的にどういう話なのか要点だけ教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!要点を3つで言うと、1) 教師データの「ラベルの誤り(label noise)」