
拓海先生、最近部下が「画像の美しさをAIで評価できる」と騒いでおりまして、正直どう役に立つのか分からず困っています。要するに投資対効果が見えないのですが、導入すべきですか?

素晴らしい着眼点ですね!大丈夫、一緒に整理しましょう。まず本論文は写真や画像の“どの部分が人に美しく見えるか”を機械的に学ぶ仕組みを提案しているんですよ。

「どの部分が美しく見えるか」を学ぶ、ですか。うちのカタログ写真を自動で選別してくれるとか、ECの画像改善に使えるということですか?

まさにその通りです。要点を3つにまとめると、1) 部分(リージョン)ごとの美的魅力を捉える、2) テキストタグから視覚属性を弱教師ありで学ぶ、3) それを畳み込みニューラルネットワークに組み込んで汎用的な美的特徴を得る、ということですよ。

専門用語が混ざってきましたね。すみません、畳み込みニューラルネットワークって要するに何ということですか?

いい質問ですね!Convolutional Neural Network (CNN)(畳み込みニューラルネットワーク)は画像の中で重要なパターンを自動で見つける道具です。例えるなら、写真を顕微鏡で何段階も拡大して細かい魅力を拾う工場のラインのようなものですよ。

なるほど。で、うちの現場に導入する際の不安はデータ準備と現場評価の部分です。どのくらいの手間がかかるのでしょうか?

その不安は的確です。論文のアプローチは、Flickrのタグという既存のテキスト情報を活用して視覚属性を弱教師ありで学ぶため、大量の手作業ラベリングを減らせるという利点があります。現場ではまず既存カタログやユーザー評価タグを集めることから始められますよ。

それは工数削減になりそうですね。とはいえ、本当に現場で使える精度が出るのか、評価の仕方も知りたいです。

検証は論文でも複数のメトリクスで行われています。要点を3つにすると、1) 部分領域の視覚的魅力を人の評価と相関させる、2) 学習した特徴を使って画像分類やリトリーブ(検索)で性能向上を確認する、3) 実際のアプリケーション(リターゲットや分類)での改善を示す、です。

これって要するに、写真の良い部分を自動で見つけて、それを基に写真の良し悪しを機械が判断できるようにするということですね?

まさにその通りですよ。大丈夫、一緒にやれば必ずできますよ。段階的に進めればリスクも小さく、先にROIの見込みが立てられます。

分かりました。私の言葉で言い直すと、既存のタグや評価を使って画像の“良い部分”を学習させ、それを活用してカタログやECの見栄えを自動改善する、ということですね。


