論文の概要: Copyright-Aware Incentive Scheme for Generative Art Models Using Hierarchical Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2410.20180v1
- Date: Sat, 26 Oct 2024 13:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:51.836248
- Title: Copyright-Aware Incentive Scheme for Generative Art Models Using Hierarchical Reinforcement Learning
- Title(参考訳): 階層的強化学習を用いた生成芸術モデルの著作権意識インセンティブ・スキーム
- Authors: Zhuan Shi, Yifei Song, Xiaoli Tang, Lingjuan Lyu, Boi Faltings,
- Abstract要約: 我々は,著作権法と裁判所における侵害に関する前例に基づく,新たな著作権基準を導入する。
次に、TRAK法を用いてデータ保持者の貢献度を推定する。
我々は,各ラウンドの予算とデータ保持者の報酬を決定するため,強化学習に基づく階層的な予算配分手法を設計する。
- 参考スコア(独自算出の注目度): 42.63462923848866
- License:
- Abstract: Generative art using Diffusion models has achieved remarkable performance in image generation and text-to-image tasks. However, the increasing demand for training data in generative art raises significant concerns about copyright infringement, as models can produce images highly similar to copyrighted works. Existing solutions attempt to mitigate this by perturbing Diffusion models to reduce the likelihood of generating such images, but this often compromises model performance. Another approach focuses on economically compensating data holders for their contributions, yet it fails to address copyright loss adequately. Our approach begin with the introduction of a novel copyright metric grounded in copyright law and court precedents on infringement. We then employ the TRAK method to estimate the contribution of data holders. To accommodate the continuous data collection process, we divide the training into multiple rounds. Finally, We designed a hierarchical budget allocation method based on reinforcement learning to determine the budget for each round and the remuneration of the data holder based on the data holder's contribution and copyright loss in each round. Extensive experiments across three datasets show that our method outperforms all eight benchmarks, demonstrating its effectiveness in optimizing budget distribution in a copyright-aware manner. To the best of our knowledge, this is the first technical work that introduces to incentive contributors and protect their copyrights by compensating them.
- Abstract(参考訳): Diffusionモデルを用いた生成技術は、画像生成やテキスト・ツー・イメージタスクにおいて顕著なパフォーマンスを実現している。
しかしながら、生成芸術におけるトレーニングデータの需要の増加は、モデルが著作権作品と非常に類似した画像を生成できるため、著作権侵害に関する重大な懸念を提起する。
既存の解決策は、拡散モデルを摂動させ、そのような画像を生成する可能性を減らすことでこれを緩和しようとするが、しばしばモデル性能を損なう。
もうひとつのアプローチは、コントリビューションのためにデータ所有者を経済的に補償することに焦点を当てているが、著作権の損失に適切に対処することができない。
当社のアプローチは、著作権法と裁判所による侵害の先例に基づく、新しい著作権基準の導入から始まります。
次に、TRAK法を用いてデータ保持者の貢献度を推定する。
連続したデータ収集プロセスに対応するため、トレーニングを複数のラウンドに分割する。
最後に,各ラウンドにおけるデータ保有者の貢献と著作権喪失に基づいて,各ラウンドの予算とデータ保有者の報酬を決定するための強化学習に基づく階層的予算配分手法を考案した。
3つのデータセットにわたる大規模な実験により、我々の手法は8つのベンチマーク全てを上回り、予算分布を著作権に配慮して最適化する効果を実証した。
私たちの知る限りでは、インセンティブの貢献者に紹介し、著作権を補償することで保護する最初の技術研究である。
関連論文リスト
- RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - An Economic Solution to Copyright Challenges of Generative AI [35.37023083413299]
生成人工知能システムは、新しいテキスト、画像、ビデオ、その他のメディアを生成するために訓練されている。
このようなシステムは、データコントリビュータのトレーニングに関する著作権権に侵害されるのではないか、という懸念が高まっている。
本稿では,AI生成コンテンツ作成への貢献に比例して著作権所有者を補償する枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:10:38Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。