論文の概要: Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition
- arxiv url: http://arxiv.org/abs/2210.06871v1
- Date: Thu, 13 Oct 2022 09:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:15:36.102310
- Title: Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition
- Title(参考訳): Adv-Attribute: 顔認識における不明瞭で移動可能な敵対的攻撃
- Authors: Shuai Jia, Bangjie Yin, Taiping Yao, Shouhong Ding, Chunhua Shen,
Xiaokang Yang, Chao Ma
- Abstract要約: Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
- 参考スコア(独自算出の注目度): 111.1952945740271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have shown their vulnerability when dealing with
adversarial attacks. Existing attacks almost perform on low-level instances,
such as pixels and super-pixels, and rarely exploit semantic clues. For face
recognition attacks, existing methods typically generate the l_p-norm
perturbations on pixels, however, resulting in low attack transferability and
high vulnerability to denoising defense models. In this work, instead of
performing perturbations on the low-level pixels, we propose to generate
attacks through perturbing on the high-level semantics to improve attack
transferability. Specifically, a unified flexible framework, Adversarial
Attributes (Adv-Attribute), is designed to generate inconspicuous and
transferable attacks on face recognition, which crafts the adversarial noise
and adds it into different attributes based on the guidance of the difference
in face recognition features from the target. Moreover, the importance-aware
attribute selection and the multi-objective optimization strategy are
introduced to further ensure the balance of stealthiness and attacking
strength. Extensive experiments on the FFHQ and CelebA-HQ datasets show that
the proposed Adv-Attribute method achieves the state-of-the-art attacking
success rates while maintaining better visual effects against recent attack
methods.
- Abstract(参考訳): ディープラーニングモデルは、敵攻撃に対処する際の脆弱性を示している。
既存の攻撃は、ピクセルやスーパーピクセルのような低レベルのインスタンスでほとんど実行され、意味的な手がかりをほとんど利用しない。
顔認識攻撃では、既存の手法ではピクセルにl_p-norm摂動を生成するのが一般的だが、攻撃の転送性が低く、防御モデルに高い脆弱性が生じる。
本研究では,低レベル画素上で摂動を行う代わりに,高レベルセマンティクスを摂動して攻撃伝達性を改善する攻撃を生成することを提案する。
具体的には、統合柔軟なフレームワークであるAdv-Attributes(Adv-Attribute)は、顔の認識に不明瞭で伝達可能な攻撃を発生させるように設計されている。
さらに,重要属性選択と多目的最適化戦略を導入して,ステルス性と攻撃力のバランスをさらに確保する。
FFHQとCelebA-HQデータセットの大規模な実験は、提案したAdv-Attributeメソッドが、最新の攻撃方法に対する視覚効果を維持しつつ、最先端の攻撃成功率を達成することを示している。
関連論文リスト
- Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Discrete Point-wise Attack Is Not Enough: Generalized Manifold
Adversarial Attack for Face Recognition [10.03652348636603]
我々は、より優れた攻撃性能を達成するために、GMAA(Generalized Manifold Adversarial Attack)の新たなパイプラインを導入する。
GMAAは攻撃対象を1から複数に拡大し、生成した敵の例に対して優れた一般化能力を促進する。
提案手法の有効性を実験的に検証し, GMAAは, より高度な一般化能力と視覚的品質を備えた, セマンティックな連続的対角空間を約束することを示した。
論文 参考訳(メタデータ) (2022-12-19T02:57:55Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Unknown Presentation Attack Detection against Rational Attackers [6.351869353952288]
プレゼンテーション攻撃検出とマルチメディア法医学は、まだ実生活環境での攻撃に対して脆弱である。
既存のソリューションの課題には、未知の攻撃の検出、敵の設定での実行能力、数発の学習、説明可能性などがある。
新たな最適化基準が提案され,実環境におけるこれらのシステムの性能向上のための要件が定義されている。
論文 参考訳(メタデータ) (2020-10-04T14:37:10Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。