論文の概要: CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks
- arxiv url: http://arxiv.org/abs/2412.01528v2
- Date: Thu, 21 Aug 2025 05:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 14:03:17.02189
- Title: CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks
- Title(参考訳): CopyrightShield: 著作権侵害攻撃に対する拡散モデルセキュリティの強化
- Authors: Zhixiang Guo, Siyuan Liang, Aishan Liu, Dacheng Tao,
- Abstract要約: 拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 61.06621533874629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models have attracted significant attention due to its exceptional data generation capabilities in fields such as image synthesis. However, recent studies have shown that diffusion models are vulnerable to copyright infringement attacks, where attackers inject strategically modified non-infringing images into the training set, inducing the model to generate infringing content under the prompt of specific poisoned captions. To address this issue, we first propose a defense framework, CopyrightShield, to defend against the above attack. Specifically, we analyze the memorization mechanism of diffusion models and find that attacks exploit the model's overfitting to specific spatial positions and prompts, causing it to reproduce poisoned samples under backdoor triggers. Based on this, we propose a poisoned sample detection method using spatial masking and data attribution to quantify poisoning risk and accurately identify hidden backdoor samples. To further mitigate memorization of poisoned features, we introduce an adaptive optimization strategy that integrates a dynamic penalty term into the training loss, reducing reliance on infringing features while preserving generative performance. Experimental results demonstrate that CopyrightShield significantly improves poisoned sample detection performance across two attack scenarios, achieving average F1-scores of 0.665, retarding the First-Attack Epoch (FAE) of 115.2% and decreasing the Copyright Infringement Rate (CIR) by 56.7%. Compared to the SoTA backdoor defense in diffusion models, the defense effect is improved by about 25%, showcasing its superiority and practicality in enhancing the security of diffusion models.
- Abstract(参考訳): 拡散モデルは、画像合成などの分野における例外的なデータ生成能力のために、大きな注目を集めている。
しかし、近年の研究では、拡散モデルが著作権侵害攻撃に弱いことが示されており、攻撃者は戦略的に修正された非侵害画像をトレーニングセットに注入し、特定の有毒なキャプションのプロンプトの下で侵害コンテンツを生成するモデルが誘導される。
この問題に対処するため,我々はまず,上記の攻撃に対して防御するための防衛フレームワークであるPhiliptyShieldを提案する。
具体的には、拡散モデルの記憶機構を分析し、特定の空間的位置とプロンプトにモデルが過度に適合していることを利用して、バックドアトリガーの下で有毒なサンプルを再現することを発見した。
そこで本研究では,空間マスキングとデータ属性を用いた有毒試料検出手法を提案し,汚染リスクを定量化し,隠れたバックドアサンプルを正確に同定する。
有害な特徴の記憶をさらに緩和するため, 動的ペナルティ項をトレーニング損失に統合し, 生成性能を維持しつつ, 侵害特徴への依存を低減する適応最適化戦略を導入する。
実験の結果,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上させ,平均F1スコア0.665,FAE115.2%,著作権侵害率56.7%を低下させた。
拡散モデルにおけるSOTAバックドアディフェンスと比較して、防御効果は約25%向上し、拡散モデルの安全性を高める上で、その優位性と実用性を示している。
関連論文リスト
- Poisoning Bayesian Inference via Data Deletion and Replication [0.4915744683251149]
我々は、一般的なベイズ推論を攻撃するために、ホワイトボックスモデル中毒パラダイムの拡張に注力する。
攻撃者がベイズの後部を目標分布に向けて操ることのできる一連の攻撃が開発されている。
比較的わずかな努力で、攻撃者はベイジアンの信念を瞬時に変えることができ、より多くのリスクを受け入れることで、彼らはこれらの信念を彼らの意志に形作ることができる。
論文 参考訳(メタデータ) (2025-03-06T14:30:15Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
自動著作権侵害識別フレームワークであるCopyJudgeを提案する。
我々は,多LVLM議論を伴う抽象フィルタ比較テストフレームワークを用いて,侵害の可能性を評価する。
これらの判断に基づいて、一般のLVLMに基づく緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - SoK: Benchmarking Poisoning Attacks and Defenses in Federated Learning [21.73177249075515]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にするが、その分散された性質は、それをクライアント側データ中毒攻撃(DPA)とモデル中毒攻撃(MPAs)に公開する。
本稿では、DPAとMPAに対する防御を統一したベンチマークと分析し、これら2つの類似しているがわずかに異なるドメインの区別を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-02-06T06:05:00Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - CPR: Retrieval Augmented Generation for Copyright Protection [101.15323302062562]
本稿では,著作権保護の強いRAGの新しい手法であるRetrieval(CPR)を用いたCopyProtected生成について紹介する。
CPRは、取得した画像のセットに拡散モデルの出力を条件付けることができる。
CPRは、攻撃者が生成した画像から抽出できる可能性のある情報の量を制限するNear Access Freeness (NAF) を満たすことを証明している。
論文 参考訳(メタデータ) (2024-03-27T18:09:55Z) - Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline [30.80691226540351]
我々は、生成AIモデルに対する著作権侵害攻撃を形式化し、SilentBadDiffusionというバックドア攻撃手法を提案した。
本手法は, 著作権情報とテキスト参照の接続を有毒データに戦略的に埋め込む方法である。
本実験は, 汚染データの盗みと有効性を示すものである。
論文 参考訳(メタデータ) (2024-01-07T08:37:29Z) - DataElixir: Purifying Poisoned Dataset to Mitigate Backdoor Attacks via
Diffusion Models [12.42597979026873]
汚染されたデータセットを浄化するための新しい衛生手法であるDataElixirを提案する。
我々は拡散モデルを利用してトリガーの特徴を排除し、良性の特徴を復元し、毒を盛ったサンプルを良性のものに変える。
9つの人気のある攻撃で実施された実験は、DataElixirが様々な複雑な攻撃を効果的に軽減し、良識の正確さに最小限の影響を与えることを示した。
論文 参考訳(メタデータ) (2023-12-18T09:40:38Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。