LLM

3273
  • 論文研究

失敗から学ぶ:エージェントのファインチューニングで負の事例を活かす(Learning From Failure: Integrating Negative Examples when Fine-tuning Large Language Models as Agents)

田中専務拓海さん、最近部下から「AIを学習させるときに失敗例も使うといいらしい」と言われまして。正直、失敗をわざわざ取り込む意味がよくわかりません。要するに失敗を見せれば賢くなるということでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、まず結論を簡潔に言いますよ。結論は「失敗

  • 論文研究

エストニア語自動校正プロジェクト報告(Eestikeelse teksti automaatkorrektuur: projekti EKTB25 lõpparuanne)

田中専務拓海さん、最近社内で「文章の自動校正」を検討するように言われまして、エストニア語の研究報告があると聞きました。要点を噛み砕いて教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!今回の報告はエストニア語向けの自動校正ツール開発についてで、大きなポイントは「データ不足をど

  • 論文研究

言語習得のブラックボックスを開く(Opening the black box of language acquisition)

田中専務拓海さん、最近またAIの話が社内で出てましてね。うちの部下は「大規模言語モデル(Large Language Models、LLMs)で自動化だ!」と言うのですが、正直どこまで信頼して投資すればいいのか、ブラックボックスで怖いんですよ。そもそも言語って機械はどう学んでいるんですか?

  • 論文研究

ChatGPTは開発者を支援できるか?(Can ChatGPT Support Developers? An Empirical Evaluation of Large Language Models for Code Generation)

田中専務拓海先生、最近社内で「ChatGPTでコードを書けるなら人手が減るのでは」と若手が騒いでおりまして、現実的な話を教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!結論を先に言うと、現状のChatGPTは「補助として有益だが、そのまま本番コードに置き換えられるほど成熟し

  • 論文研究

大規模言語モデルにおける情報流を導くGNNAVI(GNNAVI: Navigating the Information Flow in Large Language Models by Graph Neural Network)

田中専務拓海さん、最近『GNNAVI』という論文が話題らしいと聞きました。うちの現場でもAIを使う話が出ていますが、正直言って何を指標に投資判断すればいいのか見当がつきません。これって要するに何が変わるんでしょうか。AIメンター拓海素晴らしい着眼点ですね!GNNAVIは、大規模言語モデル

  • 論文研究

コールドスタート品目推薦のためのデータ拡張としての大規模言語モデル(Large Language Models as Data Augmenters for Cold-Start Item Recommendation)

田中専務拓海さん、最近部署で"AIで推薦精度を上げろ"と言われて困っております。特に新しく登録した商品が全く売れないんです。論文を読めと言われましたが、専門用語だらけで参りました。AIメンター拓海素晴らしい着眼点ですね!まず安心してください、できないことはない、まだ知らないだけです。今回

  • 論文研究

大規模言語モデルはどれほど思想操作に脆弱か(How Susceptible are Large Language Models to Ideological Manipulation?)

田中専務拓海先生、最近部下から「LLMを入れれば現場が効率化します」と言われて困っているんです。そもそも大規模言語モデルというものが、外部からの思想や意図で簡単に偏ってしまう、なんて話を聞きましたが、本当でしょうか。AIメンター拓海素晴らしい着眼点ですね!結論から言うと、かなり注意が必要

  • 論文研究

スマート並列自己修正デコーディングによる大規模言語モデル推論の高速化(Generation Meets Verification: Accelerating Large Language Model Inference with Smart Parallel Auto-Correct Decoding)

田中専務拓海さん、最近うちの若手が「LLMの推論を速くする新手法が出ました」って騒いでまして、正直よく分からないんです。これ、うちの工場のDXに役立ちますか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。簡単に言うと、この論文は「大きな言語モデルを使うのにかかる

  • 論文研究

SemEval-2024 タスク8AにおけるHU:対照学習で機械生成テキストを検出する埋め込みを学習できるか?(HU at SemEval-2024 Task 8A: Can Contrastive Learning Learn Embeddings to Detect Machine-Generated Text?)

田中専務拓海先生、お忙しいところ恐れ入ります。最近、社内で「機械生成テキストを見分けられるか」という話が持ち上がりまして、部下から論文を読めと言われたのですが、正直何を見ればいいのか分からなくてしてしまいました。これって要するに何ができるようになる研究なのでしょうか。AIメンター拓海素晴

  • 論文研究

グラフ記憶の微視構造と精度(Microstructures and Accuracy of Graph Recall by Large Language Models)

田中専務拓海先生、部下から「AIに任せれば人物間の関係を整理できます」と言われまして、正直ちょっと焦っております。文章から人や部門の関係を取り出して図にするのは、うちの現場でも役に立ちますか?AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。まず結論を3点だけお伝えし