論文の概要: Powerful Physical Adversarial Examples Against Practical Face
Recognition Systems
- arxiv url: http://arxiv.org/abs/2203.15498v1
- Date: Wed, 23 Mar 2022 18:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 17:49:18.214411
- Title: Powerful Physical Adversarial Examples Against Practical Face
Recognition Systems
- Title(参考訳): 実践的顔認識システムに対する強力な物理対抗事例
- Authors: Inderjeet Singh, Toshinori Araki, and Kazuya Kakizaki
- Abstract要約: 本稿では, 強力な物理AXを実現するために, 新たなスムースネス損失関数とパッチ・ノイズ・コンボ・アタックを提案する。
我々の滑らかさの損失は、物理的ホワイトボックス攻撃とブラックボックス攻撃の1.17倍と1.97倍の攻撃成功率(ASR)をもたらす。
- 参考スコア(独自算出の注目度): 5.922562020228145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well-known that the most existing machine learning (ML)-based
safety-critical applications are vulnerable to carefully crafted input
instances called adversarial examples (AXs). An adversary can conveniently
attack these target systems from digital as well as physical worlds. This paper
aims to the generation of robust physical AXs against face recognition systems.
We present a novel smoothness loss function and a patch-noise combo attack for
realizing powerful physical AXs. The smoothness loss interjects the concept of
delayed constraints during the attack generation process, thereby causing
better handling of optimization complexity and smoother AXs for the physical
domain. The patch-noise combo attack combines patch noise and imperceptibly
small noises from different distributions to generate powerful
registration-based physical AXs. An extensive experimental analysis found that
our smoothness loss results in robust and more transferable digital and
physical AXs than the conventional techniques. Notably, our smoothness loss
results in a 1.17 and 1.97 times better mean attack success rate (ASR) in
physical white-box and black-box attacks, respectively. Our patch-noise combo
attack furthers the performance gains and results in 2.39 and 4.74 times higher
mean ASR than conventional technique in physical world white-box and black-box
attacks, respectively.
- Abstract(参考訳): 最も既存の機械学習(ML)ベースの安全クリティカルなアプリケーションは、敵例(AXs)と呼ばれる慎重に構築された入力インスタンスに対して脆弱であることはよく知られている。
敵は、デジタルや物理世界からこれらのターゲットシステムを便利に攻撃することができる。
本稿では,顔認識システムに対する堅牢な物理AXの生成を目的とする。
本稿では,強力な物理軸を実現するための新しい平滑性損失関数とパッチノイズ複合攻撃を提案する。
滑らかさの損失は、攻撃発生過程における遅延制約の概念を介し、最適化の複雑さと物理領域に対するよりスムーズなAXの扱いをより良くする。
パッチノイズコンボ攻撃は、異なる分布からのパッチノイズと不可避的に小さなノイズを組み合わせ、強力な登録ベースの物理AXを生成する。
広範に実験した結果, 従来の手法よりも頑健で伝達性の高いデジタルおよび物理AXが得られた。
特に、我々の滑らかな損失は、物理的ホワイトボックス攻撃とブラックボックス攻撃でそれぞれ1.17と1.97倍の攻撃成功率(ASR)をもたらす。
このパッチノイズ複合攻撃は,従来の物理世界ホワイトボックス攻撃とブラックボックス攻撃の2.39倍,4.74倍の性能向上をもたらす。
関連論文リスト
- Device-aware Optical Adversarial Attack for a Portable Projector-camera System [45.58483539606022]
ディープラーニングに基づく顔認識システムは、デジタルドメインと物理ドメインの両方の敵の例に影響を受けやすい。
本稿では,既存のプロジェクタカメラによる対向光攻撃の限界に対処する。
デバイス認識適応をデジタルアタックアルゴリズムに組み込むことで、デジタルドメインから物理ドメインへの劣化を軽減する。
論文 参考訳(メタデータ) (2025-01-23T13:55:23Z) - Robust and Transferable Backdoor Attacks Against Deep Image Compression With Selective Frequency Prior [118.92747171905727]
本稿では,学習画像の圧縮モデルに複数のトリガを付加したバックドアアタックを起動するための新しい周波数ベースのトリガインジェクションモデルを提案する。
1) 圧縮品質をビットレートと再現精度で劣化させる,2) 顔認識やセマンティックセグメンテーションといったタスク駆動型対策を目標とする,様々なシナリオに適した攻撃目標を設計する。
実験の結果, トリガーインジェクションモデルと, エンコーダパラメータの微調整を組み合わせることで, 複数のバックドアとトリガーを1つの圧縮モデルに注入することができた。
論文 参考訳(メタデータ) (2024-12-02T15:58:40Z) - The Unlikely Hero: Nonideality in Analog Photonic Neural Networks as Built-in Defender Against Adversarial Attacks [7.042495891256446]
フォトニックアナログ混合信号AIハードウェアの対向ロバスト性は未解明のままである。
本フレームワークは、攻撃前の一意重み符号化と攻撃後の脆弱性認識重みロックにより、敏感な重みを積極的に保護する。
我々のフレームワークは、わずか3%のメモリオーバーヘッドしか持たない逆ビットフリップ攻撃において、ほぼ理想のオンチップ推定精度を維持している。
論文 参考訳(メタデータ) (2024-10-02T07:27:26Z) - Unveiling Vulnerability of Self-Attention [61.85150061213987]
事前訓練された言語モデル(PLM)は、マイナーな単語変更に対して脆弱であることが示されている。
本稿では,変圧器を用いたPSMの基本構造,自己注意機構について検討する。
構造的摂動によってSAを効果的に堅牢にする新しい平滑化技術である textitS-Attend を導入する。
論文 参考訳(メタデータ) (2024-02-26T10:31:45Z) - Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System [14.562718993542964]
本稿では,異なる攻撃シナリオと目的に対する2種類のハードウェア・アウェア・アタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
2つ目は、特定のサンプルがターゲットラベルに分類されるように、ネットワークパラメータ空間を乱す障害注入攻撃(EFI)である。
論文 参考訳(メタデータ) (2023-02-20T10:57:41Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks [1.9212368803706579]
本稿では,逆入力の検出に推論と呼ぶ手法を用いたハードウェアアクセラレーション・ディフェンスHASIを提案する。
その結果, 平均87%の逆検出率が, 最先端手法の検出率を上回ることがわかった。
論文 参考訳(メタデータ) (2021-06-09T14:31:28Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。