論文の概要: AMCR: A Framework for Assessing and Mitigating Copyright Risks in Generative Models
- arxiv url: http://arxiv.org/abs/2509.00641v1
- Date: Sun, 31 Aug 2025 00:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.317817
- Title: AMCR: A Framework for Assessing and Mitigating Copyright Risks in Generative Models
- Title(参考訳): AMCR: 生成モデルにおける著作権リスクの評価と緩和のためのフレームワーク
- Authors: Zhipeng Yin, Zichong Wang, Avash Palikhe, Zhen Liu, Jun Liu, Wenbin Zhang,
- Abstract要約: 本稿では,著作権リスクの評価と緩和について紹介する。
AMCRは、リスクのあるプロンプトを安全で非感受性な形式に体系的に再構築することで、プロンプトベースの戦略を構築する。
実験は、潜伏する著作権リスクを暴露し緩和するAMCRの有効性を検証する。
- 参考スコア(独自算出の注目度): 14.928831547948326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models have achieved impressive results in text to image tasks, significantly advancing visual content creation. However, this progress comes at a cost, as such models rely heavily on large-scale training data and may unintentionally replicate copyrighted elements, creating serious legal and ethical challenges for real-world deployment. To address these concerns, researchers have proposed various strategies to mitigate copyright risks, most of which are prompt based methods that filter or rewrite user inputs to prevent explicit infringement. While effective in handling obvious cases, these approaches often fall short in more subtle situations, where seemingly benign prompts can still lead to infringing outputs. To address these limitations, this paper introduces Assessing and Mitigating Copyright Risks (AMCR), a comprehensive framework which i) builds upon prompt-based strategies by systematically restructuring risky prompts into safe and non-sensitive forms, ii) detects partial infringements through attention-based similarity analysis, and iii) adaptively mitigates risks during generation to reduce copyright violations without compromising image quality. Extensive experiments validate the effectiveness of AMCR in revealing and mitigating latent copyright risks, offering practical insights and benchmarks for the safer deployment of generative models.
- Abstract(参考訳): 生成モデルは、テキストから画像へのタスクにおいて印象的な結果を達成し、視覚コンテンツの作成を大幅に進歩させた。
しかし、このようなモデルは大規模なトレーニングデータに大きく依存しており、意図せず著作権のある要素を複製する可能性があるため、現実の展開に対して重大な法的および倫理的課題が生じるため、この進歩はコストがかかる。
これらの懸念に対処するため、研究者は著作権のリスクを軽減するための様々な戦略を提案しており、そのほとんどは、明示的な侵害を防ぐためにユーザー入力をフィルタリングまたは書き換えするためのプロンプトベースの方法である。
明らかなケースを扱うのに効果的だが、これらのアプローチはより微妙な状況で失敗することが多い。
このような制約に対処するために,本論文では,包括的なフレームワークであるAMCR(Assessing and Mitigating Copyright Risks)を紹介する。
一 リスクのあるプロンプトを安全で非敏感な形式に体系的に再構築することにより、プロンプトに基づく戦略を構築すること。
二 注意に基づく類似性分析により部分的侵害を検出すること。
三 画像の品質を損なうことなく、著作権侵害を減らすため、世代間リスクを適応的に軽減すること。
広範囲にわたる実験により、AMCRは潜在著作権のリスクを明らかにし緩和し、より安全な生成モデルのデプロイのための実用的な洞察とベンチマークを提供する。
関連論文リスト
- Certified Mitigation of Worst-Case LLM Copyright Infringement [46.571805194176825]
コピーライト・テイクダウン(copyright takedown)とは、著作権のあるものに近いコンテンツをモデルが生成するのを防ぐ手法である。
我々はBloomScrubを提案する。BloomScrubは極めてシンプルで、非常に効果的な推論時間アプローチであり、認証された著作権の削除を提供する。
本研究は,軽量な推論時間手法が著作権保護に驚くほど有効であることを示唆する。
論文 参考訳(メタデータ) (2025-04-22T17:16:53Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - VA3: Virtually Assured Amplification Attack on Probabilistic Copyright Protection for Text-to-Image Generative Models [27.77911368516792]
我々は,新しいオンラインアタックフレームワークであるVirtually Assured Amplification Attack (VA3)を紹介する。
VA3は、生成モデルとの持続的な相互作用において、侵害するコンテンツを生成する確率を増幅する。
これらの知見は,テキスト・ツー・イメージ生成モデルの実践的応用において,確率論的著作権保護を実装する可能性を示している。
論文 参考訳(メタデータ) (2023-11-29T12:10:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。