Training Data

160
  • 論文研究

データは過大評価されている:知覚評価指標は訓練データ不在でも学習を導ける(Data is Overrated: Perceptual Metrics Can Lead Learning in the Absence of Training Data)

田中専務拓海先生、最近、部署で「知覚指標を損失に使うとデータがなくても学習できるらしい」と聞いたのですが、要するにデータを用意しなくてもAIが動くということですか。現場導入を考えると、本当にそんな都合がいい話があるのか心配でして。AIメンター拓海素晴らしい着眼点ですね!結論だけ先に言うと

  • 論文研究

非定常かつ深層ガウス過程回帰の収束率(Convergence rates of non-stationary and deep Gaussian process regression)

田中専務拓海先生、最近部下からガウス過程って言葉が出てきて、会議で焦ったんです。非定常とか深いって付くともう何のことやらでして、要するに何が良くなるんですか?AIメンター拓海素晴らしい着眼点ですね!ガウス過程(Gaussian process, GP)というのは、観測点から関数全体を推定

  • 論文研究

グラフデータの無断利用を検出して“消す”技術(GraphGuard: Detecting and Counteracting Training Data Misuse in Graph Neural Networks)

田中専務拓海さん、最近部下から「クラウドに出したモデルがうちの顧客データを勝手に学習してしまうかもしれない」と言われまして。これ、実際どれくらい深刻なんでしょうか。AIメンター拓海素晴らしい着眼点ですね!現代のクラウド上に展開するモデル、特にグラフを扱うGraph Neural Netw

  • 論文研究

逆問題のための学習された正則化(Learned Regularization for Inverse Problems: Insights from a Spectral Model)

田中専務拓海先生、最近「学習された正則化」って話をよく聞くんですが、うちの工場にも役に立ちますか。正直、何から考えればいいのか見当がつかなくてして。AIメンター拓海素晴らしい着眼点ですね!大丈夫、噛み砕いて整理しますよ。まずは「逆問題(inverse problems, IP)」(逆問題

  • 論文研究

不完全な訓練データの変換と拡張による頑健な機械学習(Robust Machine Learning by Transforming and Augmenting Imperfect Training Data)

田中専務拓海さん、うちの若手が『データが不完全でも対処すべきだ』って言い出して困ってます。要するに、手元のデータが完璧でないとAIは使えないんじゃないですか?AIメンター拓海素晴らしい着眼点ですね!大丈夫です、田中専務。データが完璧でなくても実務で使えるAIにする工夫がありますよ。まず要

  • 論文研究

皮膚がん診断における自己教師あり学習(Self-supervised learning for skin cancer diagnosis with limited training data)

田中専務拓海先生、最近部下から「自己教師あり学習が医療画像でいいらしい」と聞きましたが、正直何をどう変えるのかピンと来ません。うちみたいに学習データが少ない現場でも効果があるのでしょうか。AIメンター拓海素晴らしい着眼点ですね、田中専務!自己教師あり学習(Self-Supervised

  • 論文研究

簡単な訓練データが難問に効く不合理な有効性(The Unreasonable Effectiveness of Easy Training Data for Hard Tasks)

田中専務拓海先生、最近部下が『簡単なデータで学習させても難しい問題に強いモデルが作れる』という論文を挙げてきまして、正直何を信じればよいのかわかりません。現場に投資して効果が出るかをまず知りたいのですが、要点を教えていただけますか。AIメンター拓海素晴らしい着眼点ですね!結論を先に言うと

  • 論文研究

ニューラルネットワークの訓練データ解析によるハイジャック攻撃(Hijacking Attacks against Neural Networks by Analyzing Training Data)

田中専務拓海さん、最近部下から「モデルが訓練データでハイジャックされるらしい」と聞きまして、正直ピンと来ないのですが、これは本当に我々の事業に関係する話ですか?AIメンター拓海素晴らしい着眼点ですね!大丈夫です、順を追って整理しますよ。結論から言うと、あなたの会社が外部データや従業員が扱

  • 論文研究

語頻度が説明する大規模言語モデルのサイズ・学習データ量と驚き度の読解時間適合性の逆相関(Frequency Explains the Inverse Correlation of Large Language Models’ Size, Training Data Amount, and Surprisal’s Fit to Reading Times)

田中専務拓海先生、この論文のタイトルを見て驚いたのですが、要するに大きいAIほど人間の読み方とズレていくという話でしょうか。うちの現場でどう考えればいいのか教えてくださいませんか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理すれば必ずわかりますよ。端的に言えば、この論文は「

  • 論文研究

長文コンテキスト検索の評価と構築(Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT)

田中専務拓海先生、お忙しいところ恐縮です。最近、部下から「長い文書に強い検索モデルを入れるべきだ」と言われまして、正直ピンと来ないのです。要するに何が変わるんでしょうか?AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理できますよ。簡単に言うと、今の検索は長い報告書や判例、技術文