再帰的学習ループがLLMに及ぼす影響:生成データの分布シフトを左右する訓練データの性質 Recursive Training Loops in LLMs: How training data properties modulate distribution shift in generated data?
田中専務拓海さん、最近『モデルが自分で作ったデータでまた学習するとまずくなる』って話を聞きました。うちの現場でもAIを試してみたいと言われているのですが、これって現実的にどういうリスクがあるんでしょうか。AIメンター拓海素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。要点は三つで説