論文の概要: The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline
- arxiv url: http://arxiv.org/abs/2401.04136v2
- Date: Sun, 26 May 2024 06:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 08:04:22.414577
- Title: The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline
- Title(参考訳): より強力な拡散モデル, バックドアの容易性: 微調整パイプラインを調整せずに著作権侵害を誘発するデータポジショニング
- Authors: Haonan Wang, Qianli Shen, Yao Tong, Yang Zhang, Kenji Kawaguchi,
- Abstract要約: 我々は、生成AIモデルに対する著作権侵害攻撃を形式化し、SilentBadDiffusionというバックドア攻撃手法を提案した。
本手法は, 著作権情報とテキスト参照の接続を有毒データに戦略的に埋め込む方法である。
本実験は, 汚染データの盗みと有効性を示すものである。
- 参考スコア(独自算出の注目度): 30.80691226540351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The commercialization of text-to-image diffusion models (DMs) brings forth potential copyright concerns. Despite numerous attempts to protect DMs from copyright issues, the vulnerabilities of these solutions are underexplored. In this study, we formalized the Copyright Infringement Attack on generative AI models and proposed a backdoor attack method, SilentBadDiffusion, to induce copyright infringement without requiring access to or control over training processes. Our method strategically embeds connections between pieces of copyrighted information and text references in poisoning data while carefully dispersing that information, making the poisoning data inconspicuous when integrated into a clean dataset. Our experiments show the stealth and efficacy of the poisoning data. When given specific text prompts, DMs trained with a poisoning ratio of 0.20% can produce copyrighted images. Additionally, the results reveal that the more sophisticated the DMs are, the easier the success of the attack becomes. These findings underline potential pitfalls in the prevailing copyright protection strategies and underscore the necessity for increased scrutiny to prevent the misuse of DMs.
- Abstract(参考訳): テキスト・ツー・イメージ拡散モデル(DM)の商業化は、潜在的な著作権上の懸念を引き起こす。
DMを著作権問題から保護しようとする試みは数多くあるが、これらのソリューションの脆弱性は過小評価されている。
本研究では,生成AIモデルに対する著作権侵害攻撃を形式化し,トレーニングプロセスへのアクセスや制御を必要とせずに著作権侵害を誘発するバックドア攻撃手法であるSilentBadDiffusionを提案する。
本手法は, 有害データに著作権情報とテキスト参照の接続を戦略的に埋め込むとともに, その情報を慎重に分散させ, クリーンデータセットに組み込んだ場合, 有害データを目立たなくする。
本実験は, 汚染データの盗みと有効性を示すものである。
特定のテキストプロンプトが与えられた場合、0.20%の毒性比で訓練されたDMは著作権のある画像を生成することができる。
さらに, DMの高度化が進むほど, 攻撃成功の容易化が図られた。
これらの知見は、広く普及している著作権保護戦略の潜在的な落とし穴を浮き彫りにし、DMの誤使用を防ぐための監視強化の必要性を浮き彫りにしている。
関連論文リスト
- SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation [24.644101178288476]
大規模言語モデル (LLMs) は機械学習を変容させたが、著作権を侵害するテキストを生成する可能性があるため、法的に重大な懸念を提起した。
本稿では,手法の評価,攻撃戦略の検証,著作権テキストの発生防止を目的としたリアルタイム防衛を提案する。
論文 参考訳(メタデータ) (2024-06-18T18:00:03Z) - Evaluating and Mitigating IP Infringement in Visual Generative AI [54.24196167576133]
最先端のビジュアル生成モデルは、知的財産権によって保護されたキャラクターと著しく類似したコンテンツを生成することができる。
これは、入力プロンプトが文字の名前を含む場合や、その特性に関する記述的な詳細を含む場合に発生する。
我々は、潜在的に侵害される可能性のあるコンテンツを特定し、IP侵害を防止するための修正された生成パラダイムを開発する。
論文 参考訳(メタデータ) (2024-06-07T06:14:18Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - From Trojan Horses to Castle Walls: Unveiling Bilateral Data Poisoning Effects in Diffusion Models [19.140908259968302]
我々は、BadNetsのようなデータ中毒法がDMによって直接的に生成を劣化させるかどうか検討する。
BadNetsのようなデータ中毒攻撃は、DMが誤画像を生成するのに依然として有効であることを示す。
被毒DMはトリガーの割合が増加しており、これはトリガー増幅と呼ばれる現象である」
論文 参考訳(メタデータ) (2023-11-04T11:00:31Z) - A Recipe for Watermarking Diffusion Models [53.456012264767914]
拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
論文 参考訳(メタデータ) (2023-03-17T17:25:10Z) - Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples [32.701307512642835]
拡散モデル(DM)はAI for Artの波を加速させるが、新たな著作権侵害を引き起こす。
本稿では,人造美術品の保護にDMの逆例を活用することを提案する。
我々の方法は、DMベースのAI-for-Artアプリケーションを備えた侵害者に対して、人間のアーティストが著作権を保護する強力なツールとなり得る。
論文 参考訳(メタデータ) (2023-02-09T11:36:39Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Strong Data Augmentation Sanitizes Poisoning and Backdoor Attacks
Without an Accuracy Tradeoff [57.35978884015093]
CutMixのような強力なデータ拡張は、パフォーマンスを損なうことなく、中毒やバックドア攻撃の脅威を著しく減少させる可能性がある。
バックドアのコンテキストでは、CutMixは攻撃を大幅に軽減し、同時にバリデーションの精度を9%向上させる。
論文 参考訳(メタデータ) (2020-11-18T20:18:50Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。