論文の概要: Rethinking Classifier And Adversarial Attack
- arxiv url: http://arxiv.org/abs/2205.02743v1
- Date: Wed, 4 May 2022 09:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 14:24:08.333249
- Title: Rethinking Classifier And Adversarial Attack
- Title(参考訳): 分類と敵攻撃の再考
- Authors: Youhuan Yang, Lei Sun, Leyu Dai, Song Guo, Xiuqing Mao, Xiaoqin Wang
and Bayi Xu
- Abstract要約: 本稿では、ACBIを50近い広く使用されている防衛モデルに適用する。
実験の結果,ACBIは全ての症例において低ロバストな精度が得られた。
- 参考スコア(独自算出の注目度): 10.34121642283309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various defense models have been proposed to resist adversarial attack
algorithms, but existing adversarial robustness evaluation methods always
overestimate the adversarial robustness of these models (i.e. not approaching
the lower bound of robustness). To solve this problem, this paper first uses
the Decouple Space method to divide the classifier into two parts: non-linear
and linear. On this basis, this paper defines the representation vector of
original example (and its space, i.e., the representation space) and uses
Absolute Classification Boundaries Initialization (ACBI) iterative optimization
to obtain a better attack starting point (i.e. attacking from this point can
approach the lower bound of robustness faster). Particularly, this paper apply
ACBI to nearly 50 widely-used defense models (including 8 architectures).
Experimental results show that ACBI achieves lower robust accuracy in all
cases.
- Abstract(参考訳): 敵攻撃アルゴリズムに抵抗する様々な防御モデルが提案されているが、既存の敵ロバスト性評価手法は常にこれらのモデルの敵ロバスト性(すなわち、下位ロバスト性に近づかない)を過大評価している。
この問題を解決するため,本論文ではまずデコプル空間法を用いて分類器を非線形と線形の2つの部分に分割する。
そこで本論文では,元の例(およびその空間,すなわち表現空間)の表現ベクトルを定義し,絶対的分類境界初期化(ACBI)を反復的に最適化することにより,より優れた攻撃開始点(すなわち,この点からの攻撃はより早くロバストネスの下位境界に近づくことができる)を得る。
特に,本論文は,広く使用されている50近い防衛モデル(8つのアーキテクチャを含む)にACBIを適用した。
実験の結果,ACBIは全ての症例において低ロバストな精度が得られた。
関連論文リスト
- Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - A Large-scale Multiple-objective Method for Black-box Attack against
Object Detection [70.00150794625053]
我々は、真正の確率を最小化し、偽正の確率を最大化し、より多くの偽正の物体が新しい真正の有界箱を作らないようにする。
我々は、GARSDCと呼ばれるランダム・サブセット選択とディバイド・アンド・コンカーによる標準的な遺伝的アルゴリズムを拡張し、効率を大幅に改善する。
最先端攻撃法と比較して、GARSDCはmAPでは平均12.0、広範囲な実験ではクエリでは約1000倍減少する。
論文 参考訳(メタデータ) (2022-09-16T08:36:42Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Robust Representation via Dynamic Feature Aggregation [44.927408735490005]
ディープ畳み込みニューラルネットワーク(CNN)ベースのモデルは、敵の攻撃に対して脆弱である。
本稿では,新しい正規化により埋め込み空間を圧縮する動的特徴集約法を提案する。
CIFAR-10における攻撃法の平均精度は56.91%である。
論文 参考訳(メタデータ) (2022-05-16T06:22:15Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function [13.417003144007156]
敵の攻撃は 転送可能性の原理に 依存する傾向があります
敵攻撃に対するアンサンブル法は、敵の例が複数の分類器を誤解させる可能性が低いことを示す。
最近のアンサンブル法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。