論文の概要: VAGUEGAN: Stealthy Poisoning and Backdoor Attacks on Image Generative Pipelines
- arxiv url: http://arxiv.org/abs/2509.24891v1
- Date: Mon, 29 Sep 2025 15:02:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.071042
- Title: VAGUEGAN: Stealthy Poisoning and Backdoor Attacks on Image Generative Pipelines
- Title(参考訳): VAGUEGAN:画像生成パイプラインの盗聴とバックドア攻撃
- Authors: Mostafa Mohaimen Akand Faisal, Rabeya Amin Jhuma,
- Abstract要約: 本研究では,モジュール型摂動ネットワークPoisonerNetとGenerator Discriminatorペアを組み合わせた攻撃パイプラインであるVagGANを紹介した。
実験では、汚染された出力はクリーンな出力よりも視覚的品質が高いことが示され、毒が必ずしも忠実度を低下させるという仮定に挑戦する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models such as GANs and diffusion models are widely used to synthesize photorealistic images and to support downstream creative and editing tasks. While adversarial attacks on discriminative models are well studied, attacks targeting generative pipelines where small, stealthy perturbations in inputs lead to controlled changes in outputs are less explored. This study introduces VagueGAN, an attack pipeline combining a modular perturbation network PoisonerNet with a Generator Discriminator pair to craft stealthy triggers that cause targeted changes in generated images. Attack efficacy is evaluated using a custom proxy metric, while stealth is analyzed through perceptual and frequency domain measures. The transferability of the method to a modern diffusion based pipeline is further examined through ControlNet guided editing. Interestingly, the experiments show that poisoned outputs can display higher visual quality compared to clean counterparts, challenging the assumption that poisoning necessarily reduces fidelity. Unlike conventional pixel level perturbations, latent space poisoning in GANs and diffusion pipelines can retain or even enhance output aesthetics, exposing a blind spot in pixel level defenses. Moreover, carefully optimized perturbations can produce consistent, stealthy effects on generator outputs while remaining visually inconspicuous, raising concerns for the integrity of image generation pipelines.
- Abstract(参考訳): GANや拡散モデルといった生成モデルは、フォトリアリスティックな画像を合成したり、下流のクリエイティブなタスクや編集タスクをサポートするために広く利用されている。
識別モデルに対する敵対的攻撃はよく研究されているが、入力における小さな、ステルス的な摂動が出力の制御された変化をもたらすような生成パイプラインをターゲットにした攻撃は研究されていない。
本研究では,モジュール型摂動ネットワークPoisonerNetとGenerator Discriminatorペアを組み合わせた攻撃パイプラインであるVagGANを紹介した。
攻撃の有効性はカスタムプロキシメトリックを用いて評価され、ステルスは知覚領域と周波数領域の計測によって分析される。
現代的な拡散型パイプラインへのメソッドの転送性は、制御ネットのガイド編集によってさらに検証される。
興味深いことに、この実験では、汚染されたアウトプットはクリーンなアウトプットよりも視覚的品質が高いことが示され、毒が常に忠実度を低下させるという仮定に挑戦する。
従来のピクセルレベルの摂動とは異なり、GANや拡散パイプラインの遅延空間中毒は出力の美学を維持または強化し、ピクセルレベルの防御において盲点を露呈する。
さらに、注意深く最適化された摂動は、画像生成パイプラインの完全性に対する懸念を生じさせることなく、発電機出力に一貫したステルス効果をもたらすことができる。
関連論文リスト
- Disruptive Attacks on Face Swapping via Low-Frequency Perceptual Perturbations [9.303194368381586]
GAN(Generative Adversarial Networks)によって駆動されるDeepfake技術は、プライバシと社会保障に重大なリスクをもたらす。
既存の検出手法は主に受動的であり、攻撃を防ぐことなく、事後分析に重点を置いている。
フェーススワップ操作を妨害する低周波摂動に基づくアクティブディフェンス法を提案する。
論文 参考訳(メタデータ) (2025-08-28T09:34:53Z) - ForensicsSAM: Toward Robust and Unified Image Forgery Detection and Localization Resisting to Adversarial Attack [56.0056378072843]
高い転送性を持つ逆画像は上流モデルでのみ作成可能であることを示す。
本稿では,IFDLフレームワークを組み込んだForensicsSAMを提案する。
論文 参考訳(メタデータ) (2025-08-10T16:03:44Z) - Towards Imperceptible JPEG Image Hiding: Multi-range Representations-driven Adversarial Stego Generation [19.5984577708016]
JPEG画像隠蔽のためのMRAGと呼ばれるマルチレンジ表現駆動型逆スチーゴ生成フレームワークを提案する。
MRAGは、畳み込みの局所レンジ特性と変換器のグローバルレンジモデリングを統合する。
シュプロゲートステガナライザーの分類された特徴に基づいて、カバーとステゴ間の敵対的損失を計算する。
論文 参考訳(メタデータ) (2025-07-11T06:45:07Z) - TRAIL: Transferable Robust Adversarial Images via Latent diffusion [35.54430200195499]
敵対的攻撃は、ディープラーニングシステムに深刻なセキュリティリスクをもたらす。
モデル間の転送性は、生成した逆数の特徴と実世界のデータの間の分布ミスマッチによって制限されている。
テスト時間適応フレームワークTRAIL(Latent Diffusion)を用いたTransferable Robust Adrial Imagesを提案する。
論文 参考訳(メタデータ) (2025-05-22T03:11:35Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Reconstructing Richtmyer-Meshkov instabilities from noisy radiographs using low dimensional features and attention-based neural networks [3.6270672925388263]
トレーニングされた注意に基づくトランスフォーマーネットワークは、Richtmyer-Meshkoff不安定性によって与えられる複雑なトポロジーを確実に回復することができる。
このアプローチは、ICFのような二重貝殻流体力学シミュレーションで実証される。
論文 参考訳(メタデータ) (2024-08-02T03:02:39Z) - Invisible Backdoor Attacks on Diffusion Models [22.08671395877427]
近年の研究では、バックドア攻撃に対する拡散モデルの脆弱性が明らかにされている。
本稿では,目に見えないトリガーの獲得と,挿入されたバックドアのステルスネスとレジリエンスの向上を目的とした,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-02T17:43:19Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。