論文の概要: Discrete Point-wise Attack Is Not Enough: Generalized Manifold
Adversarial Attack for Face Recognition
- arxiv url: http://arxiv.org/abs/2301.06083v2
- Date: Sat, 8 Apr 2023 02:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 21:04:32.187032
- Title: Discrete Point-wise Attack Is Not Enough: Generalized Manifold
Adversarial Attack for Face Recognition
- Title(参考訳): 離散的ポイントワイズ攻撃は十分ではない:顔認識のための一般化された多様体逆攻撃
- Authors: Qian Li, Yuxiao Hu, Ye Liu, Dongxiao Zhang, Xin Jin, Yuntian Chen
- Abstract要約: 我々は、より優れた攻撃性能を達成するために、GMAA(Generalized Manifold Adversarial Attack)の新たなパイプラインを導入する。
GMAAは攻撃対象を1から複数に拡大し、生成した敵の例に対して優れた一般化能力を促進する。
提案手法の有効性を実験的に検証し, GMAAは, より高度な一般化能力と視覚的品質を備えた, セマンティックな連続的対角空間を約束することを示した。
- 参考スコア(独自算出の注目度): 10.03652348636603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical adversarial attacks for Face Recognition (FR) models typically
generate discrete examples for target identity with a single state image.
However, such paradigm of point-wise attack exhibits poor generalization
against numerous unknown states of identity and can be easily defended. In this
paper, by rethinking the inherent relationship between the face of target
identity and its variants, we introduce a new pipeline of Generalized Manifold
Adversarial Attack (GMAA) to achieve a better attack performance by expanding
the attack range. Specifically, this expansion lies on two aspects - GMAA not
only expands the target to be attacked from one to many to encourage a good
generalization ability for the generated adversarial examples, but it also
expands the latter from discrete points to manifold by leveraging the domain
knowledge that face expression change can be continuous, which enhances the
attack effect as a data augmentation mechanism did. Moreover, we further design
a dual supervision with local and global constraints as a minor contribution to
improve the visual quality of the generated adversarial examples. We
demonstrate the effectiveness of our method based on extensive experiments, and
reveal that GMAA promises a semantic continuous adversarial space with a higher
generalization ability and visual quality
- Abstract(参考訳): 顔認識(FR)モデルに対する古典的な敵対攻撃は、通常、単一の状態画像を持つターゲットアイデンティティの離散的な例を生成する。
しかし、このようなポイントワイズアタックのパラダイムは、多くの未知のアイデンティティ状態に対する一般化が不十分であり、容易に防御できる。
本稿では,対象の同一視面とその変種との固有関係を再考することで,攻撃範囲を広げて攻撃性能を向上させるための一般化多様体逆攻撃(gmaa)の新たなパイプラインを提案する。
具体的には、GMAAは攻撃対象を1つから複数に拡張し、生成した敵の例に対して優れた一般化能力を促進するだけでなく、顔の表情変化が連続可能であるというドメイン知識を活用して、後者を離散点から多様体へと拡張することで、データ拡張機構のように攻撃効果を高める。
さらに,局所的制約と全体的制約を併せ持つ二重監督を,生成した対向例の視覚品質向上に少なからぬ貢献として設計する。
我々は,本手法の有効性を広範な実験に基づいて実証し,gmaaが,高い一般化能力と視覚品質を有する意味的な連続的な敵空間を約束していることを明らかにする。
関連論文リスト
- LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Improving the Transferability of Adversarial Attacks on Face Recognition
with Beneficial Perturbation Feature Augmentation [26.032639566914114]
顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本稿では,既存のFRモデルの盲点を明らかにするために,対向顔例の移動性を改善する。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:25:59Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。