論文の概要: Taming Adversarial Robustness via Abstaining
- arxiv url: http://arxiv.org/abs/2104.02334v1
- Date: Tue, 6 Apr 2021 07:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:16:31.033769
- Title: Taming Adversarial Robustness via Abstaining
- Title(参考訳): 禁制による対向的ロバストネスの改ざん
- Authors: Abed AlRahman Al Makdah and Vaibhav Katewa and Fabio Pasqualetti
- Abstract要約: 我々は,観測を逆境によって摂動させることができる二元分類問題を考える。
我々は、予測に対する信頼度が低い場合に、分類器が決定を棄却する断定オプションを含む。
本研究では, 減衰領域の選択方法に関係なく, 両指標のトレードオフが存在することを示した。
- 参考スコア(独自算出の注目度): 7.1975923901054575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we consider a binary classification problem and cast it into a
binary hypothesis testing framework, where the observations can be perturbed by
an adversary. To improve the adversarial robustness of a classifier, we include
an abstaining option, where the classifier abstains from taking a decision when
it has low confidence about the prediction. We propose metrics to quantify the
nominal performance of a classifier with abstaining option and its robustness
against adversarial perturbations. We show that there exist a tradeoff between
the two metrics regardless of what method is used to choose the abstaining
region. Our results imply that the robustness of a classifier with abstaining
can only be improved at the expense of its nominal performance. Further, we
provide necessary conditions to design the abstaining region for a
1-dimensional binary classification problem. We validate our theoretical
results on the MNIST dataset, where we numerically show that the tradeoff
between performance and robustness also exist for the general multi-class
classification problems.
- Abstract(参考訳): 本研究では、二項分類問題を考慮し、それを二項仮説テストフレームワークに配置し、敵によって観測を妨害することができる。
分類器の対向ロバスト性を改善するために,予測に対する信頼度が低い場合には,分類器が判定を棄却する棄却オプションを含める。
本稿では, 対角的摂動に対する頑健さを抑えながら, 分類器の名目性能を定量的に評価する指標を提案する。
吸収領域の選択にどの方法が使われているかに関わらず,この2つの指標の間にはトレードオフが存在することを示す。
以上の結果から,分類器の頑健性は,その名目上の性能を犠牲にして向上することが示唆された。
さらに, 1次元二項分類問題に対して, 吸収領域を設計するために必要な条件を提供する。
我々はMNISTデータセットの理論的結果を検証し、一般的な多クラス分類問題にも性能と堅牢性のトレードオフがあることを数値的に示す。
関連論文リスト
- Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - Evaluating Adversarial Robustness with Expected Viable Performance [0.0]
本稿では,分類器の頑健性を評価するための指標について紹介する。
分類器は、従来の性能の測度(分類精度など)が最小限実行可能なしきい値以下である場合、摂動境界に関して非函数(つまり、0の関数)であると仮定される。
論文 参考訳(メタデータ) (2023-09-18T16:47:24Z) - Counterfactually Comparing Abstaining Classifiers [37.43975777164451]
保持された分類器は、不確実な入力の予測を控えるオプションがある。
そこで本稿では, 留意点を欠落データとして扱うことによって, 留意点の評価と比較を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T20:46:57Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Selective Regression Under Fairness Criteria [30.672082160544996]
少数派集団のパフォーマンスは、カバー範囲を減らしながら低下する場合もある。
満足度基準を満たす特徴を構築できれば、そのような望ましくない行動は避けられることを示す。
論文 参考訳(メタデータ) (2021-10-28T19:05:12Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Reachable Sets of Classifiers and Regression Models: (Non-)Robustness
Analysis and Robust Training [1.0878040851638]
分類器と回帰モデルの両方の頑健性特性を解析・拡張する。
具体的には、(非)難易度を検証し、堅牢なトレーニング手順を提案し、我々のアプローチが敵攻撃よりも優れていることを示す。
第2に、ラベル付けされていない入力に対する信頼できない予測と信頼できない予測を区別し、各特徴が予測に与える影響を定量化し、特徴ランキングを計算する技術を提供する。
論文 参考訳(メタデータ) (2020-07-28T10:58:06Z) - Classifier-independent Lower-Bounds for Adversarial Robustness [13.247278149124757]
理論的には、テストタイムの逆数と雑音の分類例に対するロバスト性の限界を解析する。
最適輸送理論を用いて、与えられた分類問題に対して分類器ができるベイズ最適誤差の変分式を導出する。
一般的な距離ベース攻撃の場合,ベイズ最適誤差に対して明らかな下限を導出する。
論文 参考訳(メタデータ) (2020-06-17T16:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。