デプロイメント段階における実用的なバックドア攻撃の脅威(Towards Practical Deployment-Stage Backdoor Attack on Deep Neural Networks)

田中専務

拓海先生、お時間をいただきありがとうございます。最近、部下から「モデルにバックドアが入ると危ない」と聞きまして、正直ピンと来ていません。要するに、訓練するときだけ心配すれば良い話ではないのですか。

AIメンター拓海

素晴らしい着眼点ですね!確かに多くの議論はモデルの開発・訓練段階に集中していますが、この論文は「導入後(デプロイメント段階)」でも危険があると示しているんです。大丈夫、一緒に整理しましょう。まず要点を三つでまとめますよ。1) 訓練後でも改変され得る、2) 実運用端末で感染する可能性、3) 検知が難しい、です。

田中専務

訓練後でもですか。それは現場の端末が攻撃されるということですか。社内のPCや組み込み機器にウイルスが入れば、モデルの振る舞いが変わってしまうと。

AIメンター拓海

その通りです。もっと噛み砕くと、通常のバックドア攻撃は

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む