
拓海さん、最近部下が「マルチタスク学習がいい」と騒いでおりまして、しかし同時に「個人情報が漏れるかも」とも言っております。要するに現場に使える技術なのか教えてください。

素晴らしい着眼点ですね!結論を先に言えば、MetaMorphosisは「一つのモデルで複数タスクを処理しながら、不要な個人情報の露出を抑える」方法です。大丈夫、一緒に整理していけば必ず分かりますよ。

一つのモデルで複数タスクを処理するのは分かりますが、現場の端末に入れると計算が追いつかないのではと心配です。うちの現場では古い機械も多くて。

いい質問ですよ。ポイントは三つです。第一に、Multi-task learning (MTL) マルチタスク学習は「一つの処理パイプラインで共通の特徴を作り、それを複数タスクで使う」ため、個別モデルを並べるより計算と通信が効率化できますよ。

計算資源は節約できるが、その共有特徴に元の映像や個人情報の痕跡が残ると困る。つまりこれがプライバシーの問題という理解で良いか、拓海さん?

その通りです。ここで問題になるのは二つ、Input privacy(入力プライバシー、入力データそのものの保護)とTask privacy(タスク間の情報漏洩、あるタスク用の特徴が他のタスクで悪用されること)です。MetaMorphosisは両方に対処しようとしているんですよ。

それはありがたい。具体的にはどんな仕組みでプライバシーを守るのですか。差分プライバシーとかそういう単語を聞いたことがありますが。



