
田中専務
拓海先生、お忙しいところ失礼します。部下から「現場が故意にラベルを変えて学習データを操作する可能性がある」と聞き、うちでも導入前にどういう対策が必要か悩んでおります。今回の論文はそういう問題を扱っていると伺いましたが、要点を教えていただけますか。

AIメンター拓海
素晴らしい着眼点ですね!今回の論文は「Strategyproof Learning with Advice(助言付きの戦略耐性学習)」というもので、要するにデータを提出する人が意図的に間違った情報を出しても学習結果が歪まない仕組みを助言(advice)という外部情報と組み合わせて改善する研究ですよ。大丈夫、一緒に見ていけば必ず理解できますよ。

田中専務


