論文の概要: Towards an Accurate and Secure Detector against Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2305.10856v1
- Date: Thu, 18 May 2023 10:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 15:43:43.143382
- Title: Towards an Accurate and Secure Detector against Adversarial
Perturbations
- Title(参考訳): 敵の摂動に対する高精度かつセキュアな検出器を目指して
- Authors: Chao Wang, Shuren Qi, Zhiqiu Huang, Yushu Zhang, Xiaochun Cao
- Abstract要約: 敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
- 参考スコア(独自算出の注目度): 66.98887364337975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of deep neural networks to adversarial perturbations has
been widely perceived in the computer vision community. From a security
perspective, it poses a critical risk for modern vision systems, e.g., the
popular Deep Learning as a Service (DLaaS) frameworks. For protecting
off-the-shelf deep models while not modifying them, current algorithms
typically detect adversarial patterns through discriminative decomposition of
natural-artificial data. However, these decompositions are biased towards
frequency or spatial discriminability, thus failing to capture subtle
adversarial patterns comprehensively. More seriously, they are typically
invertible, meaning successful defense-aware (secondary) adversarial attack
(i.e., evading the detector as well as fooling the model) is practical under
the assumption that the adversary is fully aware of the detector (i.e., the
Kerckhoffs's principle). Motivated by such facts, we propose an accurate and
secure adversarial example detector, relying on a spatial-frequency
discriminative decomposition with secret keys. It expands the above works on
two aspects: 1) the introduced Krawtchouk basis provides better
spatial-frequency discriminability and thereby is more suitable for capturing
adversarial patterns than the common trigonometric or wavelet basis; 2) the
extensive parameters for decomposition are generated by a pseudo-random
function with secret keys, hence blocking the defense-aware adversarial attack.
Theoretical and numerical analysis demonstrates the increased accuracy and
security of our detector w.r.t. a number of state-of-the-art algorithms.
- Abstract(参考訳): 深層ニューラルネットワークの敵対的摂動に対する脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
セキュリティの観点からは、一般的なディープラーニング・アズ・ア・サービス(DLaaS)フレームワークなど、現代のビジョンシステムにとって重要なリスクとなる。
既成の深層モデルを修正せずに保護するために、現在のアルゴリズムは通常、自然・人工データの識別的分解によって敵のパターンを検出する。
しかし、これらの分解は周波数や空間的識別性に偏りがあり、微妙な敵対パターンを包括的に捉えることができない。
より真面目な話として、それらは一般的に可逆的であり、攻撃の成功(第2次攻撃)を意味する(つまり、検出器を回避し、モデルを騙す)ことは、敵が検出器を完全に認識している(すなわちケルクホフの原理)という仮定の下で実用的である。
このような事実に触発されて,秘密鍵を用いた空間周波数判別分解に頼って,高精度かつセキュアな対向検波器を提案する。
上記の作品を2つの側面で拡張しています。
1) 導入したKrawtchoukベースにより、空間周波数の識別性が向上し、共通三角法やウェーブレット法よりも対向パターンの捕捉に適している。
2) 秘密鍵を持つ擬似ランダム関数により, 分解のための広範囲なパラメータが生成され, 防御的敵攻撃を阻止する。
理論的および数値解析により、検出器の精度と安全性が向上したことを示す。
関連論文リスト
- Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation [27.04820989579924]
ディープ・ニューラル・ネットワークは 敵の摂動に対して 強固ではない
本研究では,周波数領域の観点から,逆問題について検討する。
本稿では,よく知られたWienerフィルタに基づく対角防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T22:06:04Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - RAID: Randomized Adversarial-Input Detection for Neural Networks [7.37305608518763]
本稿では,2次分類器を訓練し,良性入力と逆性入力のニューロン活性化値の違いを識別する,逆性画像検出のための新しい手法であるRAIDを提案する。
RAIDは、一般的な6つの攻撃に対して評価すると、最先端技術よりも信頼性が高く、効果的である。
論文 参考訳(メタデータ) (2020-02-07T13:27:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。