
博士、最近AIのトレーニングに自分の作ったものが使われるかもしれないって話を聞いたんだ。でも、どうやって自分たちの権利を守るのかな?

それに関しては良いタイミングじゃ。実は『DECORAIT』という分散型システムがあって、コンテンツ制作者が自分の作品をAIトレーニングに使うかどうかを選べるんじゃ。

へぇ、選べるんだ!どうやってそれを実現してるの?

ブロックチェーン技術を使って、作品の使用許諾を安全に管理し、貢献度に応じて報酬を自動で得られるんじゃ。フィンガープリンティング技術を使って、どのコンテンツがどれだけ利用されたかを特定できるんじゃよ。
1. どんなもの?
「DECORAIT」とは、コンテンツ制作者が自身の作品を生成AI(Generative AI)のトレーニングに使用するかどうかの権利を主張し、それに対する報酬を得ることができる分散型レジストリシステムです。生成AIは、インターネット上で公開されている膨大なデータをトレーニングに使用して、画像を合成する技術です。しかし、全ての制作者が自身のコンテンツをAIトレーニングに使用されることを望むわけではありません。そこで、DECORAITでは、コンテンツ使用の同意と所有権をブロックチェーン技術を用いて登録することにより、制作者の権利を保護します。さらに、合成メディアのトレーニングデータの来歴を追跡し、貢献度に応じて制作者にクリプトカレンシーを用いた報酬を自動的に提供する機能も備えています。
2. 先行研究と比べてどこがすごい?
従来の生成AIのデータ使用においては、データの来歴や使用許諾の管理が曖昧でした。DECORAITは分散型台帳技術(DLT)を活用して信頼性のある登録機構を提供し、制作者が明確にトレーニングへの参加を選択できる点で革新的です。また、制作者に対する報酬分配機能を備えており、これまでの研究では必ずしも考慮されていなかった経済的インセンティブの提供にまで踏み込んでいます。このような機能は、データの透明性と追跡性を確保するだけでなく、制作者のモチベーションを高め、生成AIのデータ利用における新たなエコシステムを構築しています。
3. 技術や手法のキモはどこ?
DECORAITの中核を成す技術は、分散型台帳技術(DLT)とコンテンツのフィンガープリンティング技術です。DLTは、作品の使用許諾および来歴をブロックチェーンに記録することで、安全で不変の記録を提供します。一方、フィンガープリンティング技術は、視覚的な類似性スコアを基に、合成メディアのトレーニングデータとして使用されたコンテンツを特定し、その貢献度に応じてスコアを算出します。これにより、生成されたメディアに対する制作者への適正な報酬の分配が可能になります。
4. どうやって有効だと検証した?
DECORAITの有効性を検証するために、1M画像のコーパスを基に、イベントログストレージやオンチェーンでのシャード予測の適用性をテストしました。特に、イベントログストレージの使用が適していることを示し、シャード予測はクエリには適さないが、インジェストには有効であると結論付けています。また、E-FOFというバリアントが、増強なしのクエリで100%の精度、増強された状況でも91.2%の精度を達成することを確認し、クエリ速度は最大で4ミリ秒に達しました。このような結果により、制作者が自身のコンテンツをどれだけトレーニングに貢献したのかを高精度かつ迅速に把握できることを示しました。
5. 議論はある?
DECORAITの導入にあたり、様々な議論が生じる可能性があります。例えば、分散型台帳技術の適用に伴うコストや技術的なハードル、制作者が自ら選択したデータの追跡性の確保などが挙げられます。さらに、クリプトカレンシーを用いた報酬制度がコンテンツ制作者にとってどの程度のインセンティブを提供できるのか、またそれがどのようにエコシステム全体に影響を及ぼすのかはさらなる研究が必要です。
6. 次読むべき論文は?
DECORAITと関連する研究を進める上で、以下のキーワードを中心に文献を探索すると良いでしょう。「Decentralized Ledger Technology」、「Generative AI Training Data」、「Content Fingerprinting for Provenance」、「Blockchain for Creative Industry」、「Cryptocurrency Micropayments in AI」。
引用情報
Kar Balan, A. Black, A. Gilbert et al., “DECORAIT — DECentralized Opt-in/out Registry for AI Training,” arXiv preprint arXiv:YYMM.NNNNv, 2023.


