論文の概要: Disruptive Attacks on Face Swapping via Low-Frequency Perceptual Perturbations
- arxiv url: http://arxiv.org/abs/2508.20595v1
- Date: Thu, 28 Aug 2025 09:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.293643
- Title: Disruptive Attacks on Face Swapping via Low-Frequency Perceptual Perturbations
- Title(参考訳): 低周波知覚摂動による顔スワッピングの破壊的攻撃
- Authors: Mengxiao Huang, Minglei Shu, Shuwang Zhou, Zhaoyang Liu,
- Abstract要約: GAN(Generative Adversarial Networks)によって駆動されるDeepfake技術は、プライバシと社会保障に重大なリスクをもたらす。
既存の検出手法は主に受動的であり、攻撃を防ぐことなく、事後分析に重点を置いている。
フェーススワップ操作を妨害する低周波摂動に基づくアクティブディフェンス法を提案する。
- 参考スコア(独自算出の注目度): 9.303194368381586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake technology, driven by Generative Adversarial Networks (GANs), poses significant risks to privacy and societal security. Existing detection methods are predominantly passive, focusing on post-event analysis without preventing attacks. To address this, we propose an active defense method based on low-frequency perceptual perturbations to disrupt face swapping manipulation, reducing the performance and naturalness of generated content. Unlike prior approaches that used low-frequency perturbations to impact classification accuracy,our method directly targets the generative process of deepfake techniques. We combine frequency and spatial domain features to strengthen defenses. By introducing artifacts through low-frequency perturbations while preserving high-frequency details, we ensure the output remains visually plausible. Additionally, we design a complete architecture featuring an encoder, a perturbation generator, and a decoder, leveraging discrete wavelet transform (DWT) to extract low-frequency components and generate perturbations that disrupt facial manipulation models. Experiments on CelebA-HQ and LFW demonstrate significant reductions in face-swapping effectiveness, improved defense success rates, and preservation of visual quality.
- Abstract(参考訳): GAN(Generative Adversarial Networks)によって駆動されるDeepfake技術は、プライバシと社会保障に重大なリスクをもたらす。
既存の検出手法は主に受動的であり、攻撃を防ぐことなく、事後分析に重点を置いている。
そこで本稿では,フェーススワッピング操作を妨害する低周波摂動に基づくアクティブディフェンス手法を提案する。
分類精度に影響を与えるために低周波摂動を用いた従来の手法とは異なり、この手法はディープフェイク技術の生成過程を直接ターゲットとしている。
我々は、防御を強化するために周波数と空間領域の特徴を組み合わせる。
低周波摂動によるアーティファクトの導入と、高周波の詳細の保存により、出力が視覚的に可視であることを保証する。
さらに, 離散ウェーブレット変換(DWT)を利用して, 低周波成分を抽出し, 顔の操作モデルを妨害する摂動を生成する, エンコーダ, 摂動発生器, 復号器を備えた完全なアーキテクチャを設計する。
CelebA-HQとLFWの実験では、フェイススワッピングの有効性の大幅な低下、防御成功率の改善、視覚的品質の維持が示されている。
関連論文リスト
- Dual Attention Guided Defense Against Malicious Edits [70.17363183107604]
本稿では,DANP(Dual Attention-Guided Noise Perturbation)免疫法を提案する。
本手法は,悪意ある編集に対する印象的な免疫力を示し,その手法が最先端の性能を達成することを実証した。
論文 参考訳(メタデータ) (2025-12-16T12:01:28Z) - Improving Black-Box Generative Attacks via Generator Semantic Consistency [51.470649503929344]
ジェネレーティブアタックは テスト時に 1つのフォワードパスで 敵の例を生成する
初期ジェネレータの中間機能をEMA教師に整列させることで意味的整合性を実現する。
我々のアプローチは、ブラックボックス転送の一貫性を保ちながら、既存のジェネレーティブアタックにシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-06-23T02:35:09Z) - Unveiling Hidden Vulnerabilities in Digital Human Generation via Adversarial Attacks [14.356235723912564]
本稿では,デジタル・ヒューマン・ジェネレーション・モデルを効果的に実現可能な,敵対的な例を生成するための新しいフレームワークを提案する。
本手法では、可変オートエンコーダ(VAE)と制御ネットを利用して、元の画像の特徴に合わせた多様なターゲットノイズを生成する。
大規模な実験では、TBAの優位性を示し、推定誤差が41.0%増加し、平均改善率は17.0%に達した。
論文 参考訳(メタデータ) (2025-04-24T11:42:10Z) - A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - Divide and Conquer: Heterogeneous Noise Integration for Diffusion-based Adversarial Purification [75.09791002021947]
既存の浄化法は,前向き拡散過程を通じて一定のノイズを発生させ,その後に逆の処理を行い,クリーンな例を回復させることによって,対向的摂動を妨害することを目的としている。
この方法は、前処理の均一な操作が、対向的摂動と闘いながら通常のピクセルを損なうため、根本的な欠陥がある。
ニューラルネットワークの解釈可能性に基づく異種浄化戦略を提案する。
本手法は,被写体モデルが注目する特定の画素に対して高強度雑音を決定的に印加する一方,残りの画素は低強度雑音のみを被写体とする。
論文 参考訳(メタデータ) (2025-03-03T11:00:25Z) - FaceShield: Defending Facial Image against Deepfake Threats [11.78218702283404]
FaceShieldは拡散モデル(DM)が生み出すディープフェイクをターゲットとした能動的防御手法である
提案手法は3つの主要要素からなる: (i) DMの注意機構を操作し, 認知過程において保護された顔の特徴を排除し, (ii) 顔の特徴抽出モデルをターゲットとし, 対向的摂動の堅牢性を高める, (iii) ガウス的ぼかしとローパスフィルタリング技術を用いてJPEG圧縮に対する頑健性を高めつつ, 知覚能力を向上させる。
論文 参考訳(メタデータ) (2024-12-13T07:20:35Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - WaveAttack: Asymmetric Frequency Obfuscation-based Backdoor Attacks
Against Deep Neural Networks [36.00852943301727]
バックドア攻撃は 敵によって設計されている 深層ニューラルネットワーク予測を 誤解させるために 訓練サンプルと訓練プロセスを操作する
本稿では,ウェーブアタック(WaveAttack)という新しいバックドア攻撃手法を提案し,その弱点を克服する。
WaveAttackは高いステルス性と有効性を実現すると同時に、画像の忠実性において最先端(SOTA)バックドア攻撃法よりも優れる。
論文 参考訳(メタデータ) (2023-10-17T21:43:42Z) - Low-Mid Adversarial Perturbation against Unauthorized Face Recognition
System [20.979192130022334]
エンブロー周波数対向摂動(LFAP)と呼ばれる新しい解法を提案する。
この手法は、逆トレーニングにより低周波特性を利用するようにソースモデルに条件付けする。
また,中周波成分を付加的利益のために組み込んだ改良型エンフェロー中周波対向摂動(LMFAP)も導入した。
論文 参考訳(メタデータ) (2022-06-19T14:15:49Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。