論文の概要: The Stronger the Diffusion Model, the Easier the Backdoor: Data
Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline
- arxiv url: http://arxiv.org/abs/2401.04136v1
- Date: Sun, 7 Jan 2024 08:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 18:44:52.792405
- Title: The Stronger the Diffusion Model, the Easier the Backdoor: Data
Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline
- Title(参考訳): より強力な拡散モデル、より容易なバックドア:微調整パイプラインを調整せずに著作権侵害を誘発するデータ
- Authors: Haonan Wang, Qianli Shen, Yao Tong, Yang Zhang, Kenji Kawaguchi
- Abstract要約: 本研究では, DMの著作権保護に関連する脆弱性について, バックドアデータ中毒攻撃の導入による検討を行った。
本手法は,拡散モデルのトレーニングや微調整プロセスへのアクセスや制御を必要とせずに動作する。
- 参考スコア(独自算出の注目度): 33.051071182668174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The commercialization of diffusion models, renowned for their ability to
generate high-quality images that are often indistinguishable from real ones,
brings forth potential copyright concerns. Although attempts have been made to
impede unauthorized access to copyrighted material during training and to
subsequently prevent DMs from generating copyrighted images, the effectiveness
of these solutions remains unverified. This study explores the vulnerabilities
associated with copyright protection in DMs by introducing a backdoor data
poisoning attack (SilentBadDiffusion) against text-to-image diffusion models.
Our attack method operates without requiring access to or control over the
diffusion model's training or fine-tuning processes; it merely involves the
insertion of poisoning data into the clean training dataset. This data,
comprising poisoning images equipped with prompts, is generated by leveraging
the powerful capabilities of multimodal large language models and text-guided
image inpainting techniques. Our experimental results and analysis confirm the
method's effectiveness. By integrating a minor portion of
non-copyright-infringing stealthy poisoning data into the clean
dataset-rendering it free from suspicion-we can prompt the finetuned diffusion
models to produce copyrighted content when activated by specific trigger
prompts. These findings underline potential pitfalls in the prevailing
copyright protection strategies and underscore the necessity for increased
scrutiny and preventative measures against the misuse of DMs.
- Abstract(参考訳): 拡散モデルの商業化は、しばしば実際の画像と区別できない高品質な画像を生成する能力で有名であり、潜在的な著作権上の懸念をもたらす。
トレーニング中に著作権物質への不正アクセスを阻止し、DMが著作権画像を生成するのを防ぐ試みは試みられているが、これらのソリューションの有効性は検証されていない。
本研究では,テキスト・ツー・イメージ拡散モデルに対するバックドアデータ中毒攻撃(SilentBadDiffusion)を導入することで,DMの著作権保護に関連する脆弱性について検討する。
我々の攻撃方法は、拡散モデルのトレーニングや微調整プロセスへのアクセスや制御を必要とせず、単に汚染データをクリーンなトレーニングデータセットに挿入するだけである。
このデータは、マルチモーダルな大言語モデルとテキスト誘導画像塗装技術の強力な能力を活用して、プロンプトを備えた中毒画像からなる。
実験結果と解析により,本手法の有効性を確認した。
非copyright-infring stealthy poisoning dataのごく一部をクリーンデータセットに統合することで、特定のトリガープロンプトによってアクティベートされたときに、微調整された拡散モデルに著作権付きコンテンツを生成するように促すことができる。
これらの知見は、著作権保護戦略の潜在的な落とし穴を浮き彫りにしており、dmsの誤用に対する監視と予防措置の増加の必要性を強調している。
関連論文リスト
- Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Can Protective Perturbation Safeguard Personal Data from Being Exploited
by Stable Diffusion? [12.117681479929288]
元の画像構造を保ちながら保護された摂動を除去できる浄化方法を提案する。
実験により、安定拡散は、すべての保護方法において、精製された画像から効果的に学習できることが判明した。
論文 参考訳(メタデータ) (2023-11-30T07:17:43Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image
Diffusion Models [44.03524170130853]
FT-Shieldはテキスト・画像拡散モデルの微調整のために特別に設計された透かし方式である。
保護された透かし画像を用いて微調整されたモデルによって画像が生成されると、2値の透かし検出器によって画像上に透かしが検出される。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion
Models [85.52369122266549]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Unlearnable Examples for Diffusion Models: Protect Data from
Unauthorized Exploitation [20.47099939773165]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。