
田中専務
拓海先生、お時間をいただきありがとうございます。最近、部下から「モデルにバックドアが入ると危ない」と聞きまして、正直ピンと来ていません。要するに、訓練するときだけ心配すれば良い話ではないのですか。

AIメンター拓海
素晴らしい着眼点ですね!確かに多くの議論はモデルの開発・訓練段階に集中していますが、この論文は「導入後(デプロイメント段階)」でも危険があると示しているんです。大丈夫、一緒に整理しましょう。まず要点を三つでまとめますよ。1) 訓練後でも改変され得る、2) 実運用端末で感染する可能性、3) 検知が難しい、です。

田中専務
訓練後でもですか。それは現場の端末が攻撃されるということですか。社内のPCや組み込み機器にウイルスが入れば、モデルの振る舞いが変わってしまうと。
