論文の概要: StyleGuard: Preventing Text-to-Image-Model-based Style Mimicry Attacks by Style Perturbations
- arxiv url: http://arxiv.org/abs/2505.18766v1
- Date: Sat, 24 May 2025 16:09:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.648291
- Title: StyleGuard: Preventing Text-to-Image-Model-based Style Mimicry Attacks by Style Perturbations
- Title(参考訳): StyleGuard:スタイル摂動によるテキスト・ツー・イメージ・モデルによるスタイル・ミミリアタックの防止
- Authors: Yanjie Li, Wenxuan Zhang, Xinqi Lyu, Yihao Liu, Bin Xiao,
- Abstract要約: テキストと画像の拡散モデルは、スタイルの模倣とパーソナライズされたカスタマイズに広く利用されている。
DiffPureやNozz Upscalingといった最近の浄化法は、これらの最新の防御をうまく攻撃している。
本稿では,これらの問題に対処する新しいアンチミミクリー手法であるStyleGuardを提案する。
- 参考スコア(独自算出の注目度): 27.678238166174115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, text-to-image diffusion models have been widely used for style mimicry and personalized customization through methods such as DreamBooth and Textual Inversion. This has raised concerns about intellectual property protection and the generation of deceptive content. Recent studies, such as Glaze and Anti-DreamBooth, have proposed using adversarial noise to protect images from these attacks. However, recent purification-based methods, such as DiffPure and Noise Upscaling, have successfully attacked these latest defenses, showing the vulnerabilities of these methods. Moreover, present methods show limited transferability across models, making them less effective against unknown text-to-image models. To address these issues, we propose a novel anti-mimicry method, StyleGuard. We propose a novel style loss that optimizes the style-related features in the latent space to make it deviate from the original image, which improves model-agnostic transferability. Additionally, to enhance the perturbation's ability to bypass diffusion-based purification, we designed a novel upscale loss that involves ensemble purifiers and upscalers during training. Extensive experiments on the WikiArt and CelebA datasets demonstrate that StyleGuard outperforms existing methods in robustness against various transformations and purifications, effectively countering style mimicry in various models. Moreover, StyleGuard is effective on different style mimicry methods, including DreamBooth and Textual Inversion.
- Abstract(参考訳): 近年,DreamBooth や Textual Inversion などの手法によるスタイル模倣やパーソナライズのためのテキスト・ツー・イメージ拡散モデルが広く用いられている。
これにより知的財産権保護と偽コンテンツの生成に対する懸念が高まっている。
最近の研究、例えばGlazeやAnti-DreamBoothは、これらの攻撃から画像を保護するために敵対的ノイズを使用することを提案している。
しかし、DiffPure や Noise Upscaling のような最近の浄化法は、これらの最新の防御を攻撃し、これらの方法の脆弱性を示している。
さらに,本手法は,未知のテキスト・ツー・イメージ・モデルに対して,モデル間での転送可能性の制限を示す。
これらの問題に対処するために,新しいアンチミミクリー手法であるStyleGuardを提案する。
モデルに依存しない転送性を改善するため,潜在空間におけるスタイル関連特徴を最適化し,原画像から逸脱させる新しいスタイル損失を提案する。
さらに,拡散に基づく浄化を回避できる摂動能力を高めるため,トレーニング中にアンサンブル浄化器やアップスケーラを組み込んだ新規なアップスケールロスを設計した。
WikiArtとCelebAデータセットの大規模な実験により、StyleGuardは、様々な変換やパーフィケーションに対して、既存の手法よりも堅牢性が高いことが示され、様々なモデルにおけるスタイルの模倣に効果的に対抗している。
さらに、StyleGuardはDreamBoothやTextual Inversionなど、さまざまなスタイルの模倣方法に有効である。
関連論文リスト
- SITA: Structurally Imperceptible and Transferable Adversarial Attacks for Stylized Image Generation [34.228338508482494]
美術品の保護を目的とした現在の手法は、しばしば敵の攻撃を用いる。
本稿では,SITA攻撃(Structurely Imperceptible and Transferable Adrial)を提案する。
これは、転送性、計算効率、ノイズの受容性の観点から、既存の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2025-03-25T15:55:25Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - MuseumMaker: Continual Style Customization without Catastrophic Forgetting [50.12727620780213]
本研究では,一組のカスタマイズスタイルを終末的に追従することで,画像の合成を可能にする方法であるMuseumMakerを提案する。
新しいカスタマイズスタイルに直面すると、新しい画像生成のためのトレーニングデータのスタイルを抽出し学習するスタイル蒸留損失モジュールを開発する。
これは、新しい訓練画像の内容による学習バイアスを最小限に抑え、少数ショット画像によって引き起こされる破滅的な過適合問題に対処することができる。
論文 参考訳(メタデータ) (2024-04-25T13:51:38Z) - DiffStyler: Diffusion-based Localized Image Style Transfer [0.0]
画像スタイル転送は、色、ブラシストローク、形状など、スタイルターゲットの特徴的な特性を持つデジタルイメージを埋め込むことを目的としている。
任意のスタイル転送手法の進歩にもかかわらず、コンテンツセマンティクスとスタイル属性の微妙な均衡は依然として大きな課題である。
本稿ではDiffStylerについて紹介する。DiffStylerは、任意の画像スタイルの効率的な転送を容易にする新しいアプローチである。
論文 参考訳(メタデータ) (2024-03-27T11:19:34Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。