論文の概要: SITA: Structurally Imperceptible and Transferable Adversarial Attacks for Stylized Image Generation
- arxiv url: http://arxiv.org/abs/2503.19791v1
- Date: Tue, 25 Mar 2025 15:55:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:05.579012
- Title: SITA: Structurally Imperceptible and Transferable Adversarial Attacks for Stylized Image Generation
- Title(参考訳): SITA:スティル化画像生成のための構造的に受容不能で伝達不能な対向攻撃
- Authors: Jingdan Kang, Haoxin Yang, Yan Cai, Huaidong Zhang, Xuemiao Xu, Yong Du, Shengfeng He,
- Abstract要約: 美術品の保護を目的とした現在の手法は、しばしば敵の攻撃を用いる。
本稿では,SITA攻撃(Structurely Imperceptible and Transferable Adrial)を提案する。
これは、転送性、計算効率、ノイズの受容性の観点から、既存の手法よりも大幅に優れています。
- 参考スコア(独自算出の注目度): 34.228338508482494
- License:
- Abstract: Image generation technology has brought significant advancements across various fields but has also raised concerns about data misuse and potential rights infringements, particularly with respect to creating visual artworks. Current methods aimed at safeguarding artworks often employ adversarial attacks. However, these methods face challenges such as poor transferability, high computational costs, and the introduction of noticeable noise, which compromises the aesthetic quality of the original artwork. To address these limitations, we propose a Structurally Imperceptible and Transferable Adversarial (SITA) attacks. SITA leverages a CLIP-based destylization loss, which decouples and disrupts the robust style representation of the image. This disruption hinders style extraction during stylized image generation, thereby impairing the overall stylization process. Importantly, SITA eliminates the need for a surrogate diffusion model, leading to significantly reduced computational overhead. The method's robust style feature disruption ensures high transferability across diverse models. Moreover, SITA introduces perturbations by embedding noise within the imperceptible structural details of the image. This approach effectively protects against style extraction without compromising the visual quality of the artwork. Extensive experiments demonstrate that SITA offers superior protection for artworks against unauthorized use in stylized generation. It significantly outperforms existing methods in terms of transferability, computational efficiency, and noise imperceptibility. Code is available at https://github.com/A-raniy-day/SITA.
- Abstract(参考訳): 画像生成技術は様々な分野で大きな進歩を遂げてきたが、特にビジュアルアートワークの作成に関して、データ誤用や潜在的な権利侵害に関する懸念も持ち上がっている。
美術品の保護を目的とした現在の手法は、しばしば敵の攻撃を用いる。
しかし、これらの手法は、転送可能性の低下、高い計算コスト、目立ったノイズの導入といった課題に直面しており、オリジナルのアートワークの美的品質を損なう。
これらの制約に対処するために、構造的に受容不能で転送不能な攻撃(SITA)を提案する。
SITAはCLIPベースのデスティル化損失を活用し、画像の堅牢なスタイル表現を分離し破壊する。
これにより、スタイリゼーション画像生成時のスタイル抽出が妨げられ、全体的なスタイリゼーション処理が損なわれる。
重要なことに、SITAは代理拡散モデルの必要性を排除し、計算オーバーヘッドを大幅に削減する。
この手法の頑健なスタイルの特徴破壊は、様々なモデル間で高い伝達性を保証する。
さらに、SITAは、画像の構造的詳細にノイズを埋め込むことによって摂動を導入する。
このアプローチは,美術品の視覚的品質を損なうことなく,スタイル抽出を効果的に保護する。
広範囲にわたる実験により、SITAは、スタイリズドジェネレーションにおける不正使用に対するアートワークの優れた保護を提供することが示された。
これは、転送性、計算効率、ノイズの受容性の観点から、既存の手法よりも大幅に優れています。
コードはhttps://github.com/A-raniy-day/SITAで入手できる。
関連論文リスト
- Anti-Reference: Universal and Immediate Defense Against Reference-Based Generation [24.381813317728195]
反参照は、参照ベースの生成技術によって引き起こされる脅威から画像を保護する新しい方法である。
本研究では,微調整に基づくカスタマイズ手法に対する共同攻撃を可能にする一元的損失関数を提案する。
提案手法は特定の転送攻撃能力を示し,グレーボックスモデルといくつかの商用APIの両方に効果的に挑戦する。
論文 参考訳(メタデータ) (2024-12-08T16:04:45Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - DDAP: Dual-Domain Anti-Personalization against Text-to-Image Diffusion Models [18.938687631109925]
拡散に基づくパーソナライズされたビジュアルコンテンツ生成技術は、大きなブレークスルーを達成した。
しかし、偽のニュースや個人をターゲットとするコンテンツを作るのに誤用された場合、これらの技術は社会的な危害をもたらす可能性がある。
本稿では,新しいDual-Domain Anti-Personalization framework(DDAP)を紹介する。
これら2つの手法を交互に組み合わせることで、DDAPフレームワークを構築し、両方のドメインの強みを効果的に活用する。
論文 参考訳(メタデータ) (2024-07-29T16:11:21Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - PortraitBooth: A Versatile Portrait Model for Fast Identity-preserved
Personalization [92.90392834835751]
PortraitBoothは高効率、堅牢なID保存、表現編集可能な画像生成のために設計されている。
PortraitBoothは計算オーバーヘッドを排除し、アイデンティティの歪みを軽減する。
生成した画像の多様な表情に対する感情認識のクロスアテンション制御が組み込まれている。
論文 参考訳(メタデータ) (2023-12-11T13:03:29Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。