論文の概要: Copyright Infringement Detection in Text-to-Image Diffusion Models via Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.23022v1
- Date: Sat, 27 Sep 2025 00:38:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.989008
- Title: Copyright Infringement Detection in Text-to-Image Diffusion Models via Differential Privacy
- Title(参考訳): 差分プライバシーを用いたテキスト・画像拡散モデルにおける著作権侵害検出
- Authors: Xiafeng Man, Zhipeng Wei, Jingjing Chen,
- Abstract要約: 我々は、著作権侵害の概念を定式化し、差分プライバシー(DP)の観点からその検出を行う。
テキストから画像への拡散モデルにおける著作権侵害を識別する新しいポストホック検出フレームワークであるD-Plus-Minus(DPM)を提案する。
以上の結果から,DPMは元のトレーニングデータセットやテキストプロンプトへのアクセスを必要とせず,確実に侵害内容を検出することが示唆された。
- 参考スコア(独自算出の注目度): 23.262369771803364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of large vision models such as Stable Diffusion raises significant legal and ethical concerns, as these models can memorize and reproduce copyrighted content without authorization. Existing detection approaches often lack robustness and fail to provide rigorous theoretical underpinnings. To address these gaps, we formalize the concept of copyright infringement and its detection from the perspective of Differential Privacy (DP), and introduce the conditional sensitivity metric, a concept analogous to sensitivity in DP, that quantifies the deviation in a diffusion model's output caused by the inclusion or exclusion of a specific training data point. To operationalize this metric, we propose D-Plus-Minus (DPM), a novel post-hoc detection framework that identifies copyright infringement in text-to-image diffusion models. Specifically, DPM simulates inclusion and exclusion processes by fine-tuning models in two opposing directions: learning or unlearning. Besides, to disentangle concept-specific influence from the global parameter shifts induced by fine-tuning, DPM computes confidence scores over orthogonal prompt distributions using statistical metrics. Moreover, to facilitate standardized benchmarking, we also construct the Copyright Infringement Detection Dataset (CIDD), a comprehensive resource for evaluating detection across diverse categories. Our results demonstrate that DPM reliably detects infringement content without requiring access to the original training dataset or text prompts, offering an interpretable and practical solution for safeguarding intellectual property in the era of generative AI.
- Abstract(参考訳): 安定拡散のような大規模な視覚モデルの普及は、これらのモデルが許可なく著作権のあるコンテンツを記憶し再生できるため、法的および倫理的懸念を生じさせる。
既存の検出アプローチは堅牢性に欠けることが多く、厳密な理論的基盤を提供することができない。
これらのギャップに対処するため、我々は、差分プライバシー(DP)の観点から著作権侵害とその検出の概念を定式化し、特定の訓練データポイントの包含や排除による拡散モデルの出力の偏差を定量化する条件感度指標(DPの感度に類似した概念)を導入する。
D-Plus-Minus(DPM)は,テキストから画像への拡散モデルにおける著作権侵害を識別する新しいポストホック検出フレームワークである。
具体的には、DPMは、学習または未学習という2つの反対方向の微調整モデルによる包摂と排除のプロセスをシミュレートする。
さらに、微調整によって引き起こされる大域的パラメータシフトによる概念特異的な影響を解消するために、DPMは統計量を用いて直交的なプロンプト分布に対する信頼スコアを算出する。
さらに、標準化されたベンチマークを容易にするため、さまざまなカテゴリにわたる検出を評価するための総合的なリソースである著作権侵害検出データセット(CIDD)を構築した。
以上の結果から,DPMはオリジナルトレーニングデータセットやテキストプロンプトへのアクセスを必要とせずに,確実に侵害内容を検出できることが示唆された。
関連論文リスト
- CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - An Inversion-based Measure of Memorization for Diffusion Models [37.9715620828388]
拡散モデルは、データの記憶をトレーニングし、著作権侵害やプライバシー侵害に関する懸念を提起する。
InvMMは,画像の複製を考慮に入れた感度潜時雑音分布の反転に基づく,インバージョンに基づく暗黙化尺度である。
InvMMはサンプル間で共振可能であり、正反対の立場から記憶の真の範囲を明らかにし、記憶がメンバーシップとどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-05-09T15:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。