論文の概要: Towards Imperceptible Adversarial Defense: A Gradient-Driven Shield against Facial Manipulations
- arxiv url: http://arxiv.org/abs/2510.01699v1
- Date: Thu, 02 Oct 2025 06:09:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.0202
- Title: Towards Imperceptible Adversarial Defense: A Gradient-Driven Shield against Facial Manipulations
- Title(参考訳): 知覚不可能な対人防御に向けて:顔操作に対するグラディエント駆動シールド
- Authors: Yue Li, Linying Xue, Dongdong Lin, Qiushi Li, Hui Tian, Hongxia Wang,
- Abstract要約: 攻撃的な防衛戦略は 敵の摂動を 顔画像に埋め込んで ディープフェイク操作に 対処する
既存の方法はしばしば、知覚不能と防御効果のトレードオフに直面し、強引な摂動は偽造行為を妨害するが、視力は低下する。
本稿では,顔の深度を効果的に抑制し,知覚的劣化を最小限に抑えた勾配投影型対向的防御法(GRASP)を提案する。
- 参考スコア(独自算出の注目度): 18.932757222449673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the flourishing prosperity of generative models, manipulated facial images have become increasingly accessible, raising concerns regarding privacy infringement and societal trust. In response, proactive defense strategies embed adversarial perturbations into facial images to counter deepfake manipulation. However, existing methods often face a tradeoff between imperceptibility and defense effectiveness-strong perturbations may disrupt forgeries but degrade visual fidelity. Recent studies have attempted to address this issue by introducing additional visual loss constraints, yet often overlook the underlying gradient conflicts among losses, ultimately weakening defense performance. To bridge the gap, we propose a gradient-projection-based adversarial proactive defense (GRASP) method that effectively counters facial deepfakes while minimizing perceptual degradation. GRASP is the first approach to successfully integrate both structural similarity loss and low-frequency loss to enhance perturbation imperceptibility. By analyzing gradient conflicts between defense effectiveness loss and visual quality losses, GRASP pioneers the design of the gradient-projection mechanism to mitigate these conflicts, enabling balanced optimization that preserves image fidelity without sacrificing defensive performance. Extensive experiments validate the efficacy of GRASP, achieving a PSNR exceeding 40 dB, SSIM of 0.99, and a 100% defense success rate against facial attribute manipulations, significantly outperforming existing approaches in visual quality.
- Abstract(参考訳): 生成モデルの繁栄に伴い、操作された顔画像がアクセスしやすくなり、プライバシー侵害や社会的信頼に関する懸念が高まっている。
反応として, 対向的摂動を顔画像に埋め込み, ディープフェイク操作に対処する。
しかし、既存の方法はしばしば、知覚不能と防御効果のトレードオフに直面し、強引な摂動は偽造行為を妨害するが、視力は低下する。
近年の研究では、視覚的損失の制約を追加することでこの問題に対処しようと試みているが、しばしば損失間の勾配の対立を見落とし、最終的に防御性能は低下した。
このギャップを埋めるために,顔の深度を効果的に抑制し,知覚的劣化を最小限に抑える勾配投射型対向的防御法(GRASP)を提案する。
GRASPは、構造的類似性損失と低周波損失の両方をうまく統合して摂動障害を誘発する最初のアプローチである。
GRASPは、防御効果の損失と視覚的品質の損失の間の勾配の衝突を分析することで、これらの衝突を緩和する勾配投影機構の設計を開拓し、防御性能を犠牲にすることなく画像の忠実性を維持するバランスの取れた最適化を可能にした。
GRASPの有効性を検証する実験は、PSNRが40dB以上、SSIMが0.99以上、顔の属性操作に対する防御成功率が100%で、既存の視覚的品質のアプローチよりも大幅に優れています。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - Towards Effective and Efficient Adversarial Defense with Diffusion Models for Robust Visual Tracking [15.806472680573297]
本稿では,DiffDfと呼ばれる拡散確率モデルに基づく新しい敵防衛法を提案する。
実験により、DiffDfは30FPS以上のリアルタイム推論速度を実現し、優れた防御性能と効率を示すことが示された。
論文 参考訳(メタデータ) (2025-05-31T00:37:28Z) - Mechanistic Understandings of Representation Vulnerabilities and Engineering Robust Vision Transformers [1.1187085721899017]
視覚変換器(ViT)の既知の表現脆弱性の源泉について検討し、知覚的に同一の画像が全く異なる表現を持つことを示す。
我々は,早期に脆弱な神経細胞を戦略的に中和する新しい防御機構であるNeuroShield-ViTを開発し,対向効果のカスケードを防止する。
我々の研究結果は、視力変換器が敵の攻撃に対して堅牢性を高めるための有望なアプローチを提供しながら、敵の効果がViT層を通してどのように伝播するかに新たな光を当てた。
論文 参考訳(メタデータ) (2025-02-07T05:58:16Z) - Gradient-Free Adversarial Purification with Diffusion Models [26.591092007972325]
敵の訓練と敵の浄化は、敵の攻撃に対するモデル堅牢性を高めるために広く用いられている。
本稿では,摂動型攻撃と非制限型攻撃の両方に対抗し,効果的かつ効率的な防御フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T02:34:14Z) - Nearly Zero-Cost Protection Against Mimicry by Personalized Diffusion Models [9.548195579003897]
遅延を低減するための事前学習を導入し、性能劣化を最小限に抑えるための混合摂動手法を提案する。
我々の新しいトレーニング戦略は、複数のVAE特徴空間における保護損失を計算し、推論における適応的目標保護はロバスト性を高める。
実験では、視認性を向上し、推論時間を劇的に短縮した同等の保護性能を示す。
論文 参考訳(メタデータ) (2024-12-16T03:46:45Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - CARNet: Collaborative Adversarial Resilience for Robust Underwater Image Enhancement and Perception [16.135354859458758]
我々は,CARNetと呼ばれる協調対向レジリエンスネットワークを導入し,水中画像の強調とそれに続く検出を行う。
本研究ではまず,水中画像から攻撃を分離する強力な知覚能力を持つ可逆ネットワークを導入する。
また,異なるタイプの攻撃に対するネットワークの堅牢性を高めるために,二段階攻撃最適化手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Low-Mid Adversarial Perturbation against Unauthorized Face Recognition
System [20.979192130022334]
エンブロー周波数対向摂動(LFAP)と呼ばれる新しい解法を提案する。
この手法は、逆トレーニングにより低周波特性を利用するようにソースモデルに条件付けする。
また,中周波成分を付加的利益のために組み込んだ改良型エンフェロー中周波対向摂動(LMFAP)も導入した。
論文 参考訳(メタデータ) (2022-06-19T14:15:49Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。