論文の概要: RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries
- arxiv url: http://arxiv.org/abs/2207.01149v1
- Date: Mon, 4 Jul 2022 00:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:22:35.736037
- Title: RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries
- Title(参考訳): RAF:超限定クエリを用いた顔認識における再帰的敵対攻撃
- Authors: Keshav Kasichainula, Hadi Mansourifar, Weidong Shi
- Abstract要約: 近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
- 参考スコア(独自算出の注目度): 2.8532545355403123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent successful adversarial attacks on face recognition show that, despite
the remarkable progress of face recognition models, they are still far behind
the human intelligence for perception and recognition. It reveals the
vulnerability of deep convolutional neural networks (CNNs) as state-of-the-art
building block for face recognition models against adversarial examples, which
can cause certain consequences for secure systems. Gradient-based adversarial
attacks are widely studied before and proved to be successful against face
recognition models. However, finding the optimized perturbation per each face
needs to submitting the significant number of queries to the target model. In
this paper, we propose recursive adversarial attack on face recognition using
automatic face warping which needs extremely limited number of queries to fool
the target model. Instead of a random face warping procedure, the warping
functions are applied on specific detected regions of face like eyebrows, nose,
lips, etc. We evaluate the robustness of proposed method in the decision-based
black-box attack setting, where the attackers have no access to the model
parameters and gradients, but hard-label predictions and confidence scores are
provided by the target model.
- Abstract(参考訳): 最近の顔認識に対する敵意攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
深層畳み込みニューラルネットワーク(deep convolutional neural networks, cnns)の脆弱性を、顔認識モデルの敵の例に対する最先端構築ブロックとして明らかにすることで、セキュアなシステムに一定の影響をもたらす可能性がある。
グラディエントベースの敵攻撃は、これまで広く研究され、顔認識モデルに対して成功したことが証明された。
しかし、各顔ごとに最適化された摂動を見つけるには、ターゲットモデルにかなりの数のクエリを提出する必要がある。
本稿では,ターゲットモデルを騙すのに極めて限られたクエリ数を必要とする自動顔ワープを用いた,顔認識に対する再帰的敵対攻撃を提案する。
ランダムな顔の反りの手順の代わりに、反りの機能は、まばたき、鼻、唇などの特定の顔の特定の領域に適用される。
我々は,攻撃者がモデルパラメータや勾配にアクセスできない決定ベースのブラックボックス攻撃設定において,提案手法のロバスト性を評価するが,ハードラベル予測と信頼性スコアは対象モデルによって提供される。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - On the (Limited) Generalization of MasterFace Attacks and Its Relation
to the Capacity of Face Representations [11.924504853735645]
実験および理論的研究におけるMasterFace攻撃の一般化可能性について検討する。
顔空間のアイデンティティが適切に分離されていると仮定して、顔容量と最大MasterFaceカバレッジを推定する。
MasterFacesは顔認識システムに対する脅威ではなく、顔認識モデルの堅牢性を高めるツールである、と結論付けている。
論文 参考訳(メタデータ) (2022-03-23T13:02:41Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack [3.3707422585608953]
ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
論文 参考訳(メタデータ) (2020-08-23T03:37:51Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。