論文の概要: Powerful Physical Adversarial Examples Against Practical Face
Recognition Systems
- arxiv url: http://arxiv.org/abs/2203.15498v1
- Date: Wed, 23 Mar 2022 18:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 17:49:18.214411
- Title: Powerful Physical Adversarial Examples Against Practical Face
Recognition Systems
- Title(参考訳): 実践的顔認識システムに対する強力な物理対抗事例
- Authors: Inderjeet Singh, Toshinori Araki, and Kazuya Kakizaki
- Abstract要約: 本稿では, 強力な物理AXを実現するために, 新たなスムースネス損失関数とパッチ・ノイズ・コンボ・アタックを提案する。
我々の滑らかさの損失は、物理的ホワイトボックス攻撃とブラックボックス攻撃の1.17倍と1.97倍の攻撃成功率(ASR)をもたらす。
- 参考スコア(独自算出の注目度): 5.922562020228145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well-known that the most existing machine learning (ML)-based
safety-critical applications are vulnerable to carefully crafted input
instances called adversarial examples (AXs). An adversary can conveniently
attack these target systems from digital as well as physical worlds. This paper
aims to the generation of robust physical AXs against face recognition systems.
We present a novel smoothness loss function and a patch-noise combo attack for
realizing powerful physical AXs. The smoothness loss interjects the concept of
delayed constraints during the attack generation process, thereby causing
better handling of optimization complexity and smoother AXs for the physical
domain. The patch-noise combo attack combines patch noise and imperceptibly
small noises from different distributions to generate powerful
registration-based physical AXs. An extensive experimental analysis found that
our smoothness loss results in robust and more transferable digital and
physical AXs than the conventional techniques. Notably, our smoothness loss
results in a 1.17 and 1.97 times better mean attack success rate (ASR) in
physical white-box and black-box attacks, respectively. Our patch-noise combo
attack furthers the performance gains and results in 2.39 and 4.74 times higher
mean ASR than conventional technique in physical world white-box and black-box
attacks, respectively.
- Abstract(参考訳): 最も既存の機械学習(ML)ベースの安全クリティカルなアプリケーションは、敵例(AXs)と呼ばれる慎重に構築された入力インスタンスに対して脆弱であることはよく知られている。
敵は、デジタルや物理世界からこれらのターゲットシステムを便利に攻撃することができる。
本稿では,顔認識システムに対する堅牢な物理AXの生成を目的とする。
本稿では,強力な物理軸を実現するための新しい平滑性損失関数とパッチノイズ複合攻撃を提案する。
滑らかさの損失は、攻撃発生過程における遅延制約の概念を介し、最適化の複雑さと物理領域に対するよりスムーズなAXの扱いをより良くする。
パッチノイズコンボ攻撃は、異なる分布からのパッチノイズと不可避的に小さなノイズを組み合わせ、強力な登録ベースの物理AXを生成する。
広範に実験した結果, 従来の手法よりも頑健で伝達性の高いデジタルおよび物理AXが得られた。
特に、我々の滑らかな損失は、物理的ホワイトボックス攻撃とブラックボックス攻撃でそれぞれ1.17と1.97倍の攻撃成功率(ASR)をもたらす。
このパッチノイズ複合攻撃は,従来の物理世界ホワイトボックス攻撃とブラックボックス攻撃の2.39倍,4.74倍の性能向上をもたらす。
関連論文リスト
- The Unlikely Hero: Nonideality in Analog Photonic Neural Networks as Built-in Defender Against Adversarial Attacks [7.042495891256446]
フォトニックアナログ混合信号AIハードウェアの対向ロバスト性は未解明のままである。
本フレームワークは、攻撃前の一意重み符号化と攻撃後の脆弱性認識重みロックにより、敏感な重みを積極的に保護する。
我々のフレームワークは、わずか3%のメモリオーバーヘッドしか持たない逆ビットフリップ攻撃において、ほぼ理想のオンチップ推定精度を維持している。
論文 参考訳(メタデータ) (2024-10-02T07:27:26Z) - Unveiling Vulnerability of Self-Attention [61.85150061213987]
事前訓練された言語モデル(PLM)は、マイナーな単語変更に対して脆弱であることが示されている。
本稿では,変圧器を用いたPSMの基本構造,自己注意機構について検討する。
構造的摂動によってSAを効果的に堅牢にする新しい平滑化技術である textitS-Attend を導入する。
論文 参考訳(メタデータ) (2024-02-26T10:31:45Z) - Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System [14.562718993542964]
本稿では,異なる攻撃シナリオと目的に対する2種類のハードウェア・アウェア・アタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
2つ目は、特定のサンプルがターゲットラベルに分類されるように、ネットワークパラメータ空間を乱す障害注入攻撃(EFI)である。
論文 参考訳(メタデータ) (2023-02-20T10:57:41Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Self-Supervised Iterative Contextual Smoothing for Efficient Adversarial
Defense against Gray- and Black-Box Attack [24.66829920826166]
グレーボックスとブラックボックス攻撃に対する新しい入力変換に基づく対角防御法を提案する。
我々の防御には計算に費用がかかる敵の訓練は必要ないが、入力変換によってその堅牢な精度にアプローチすることができる。
論文 参考訳(メタデータ) (2021-06-22T09:51:51Z) - HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks [1.9212368803706579]
本稿では,逆入力の検出に推論と呼ぶ手法を用いたハードウェアアクセラレーション・ディフェンスHASIを提案する。
その結果, 平均87%の逆検出率が, 最先端手法の検出率を上回ることがわかった。
論文 参考訳(メタデータ) (2021-06-09T14:31:28Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Bias-based Universal Adversarial Patch Attack for Automatic Check-out [59.355948824578434]
逆の例は、ディープニューラルネットワーク(DNN)を簡単に誤解させる、知覚不能な摂動を持つ入力である。
既存の戦略は強力な一般化能力を持つ敵パッチを生成できなかった。
本稿では,強い一般化能力を持つクラス非依存の普遍的敵パッチを生成するためのバイアスベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-19T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。