論文の概要: Relaxing Local Robustness
- arxiv url: http://arxiv.org/abs/2106.06624v1
- Date: Fri, 11 Jun 2021 22:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:52:14.577894
- Title: Relaxing Local Robustness
- Title(参考訳): 局所的ロバストネスの緩和
- Authors: Klas Leino, Matt Fredrikson
- Abstract要約: ローカルロバスト性は、敵の存在においても自然な目的ではない。
緩和された各ロバスト性に対して効率よく検証できるモデルを構築する方法を示す。
これらの緩和されたロバスト性変異がいくつかの重要な分類問題によく適合していることを実験的に実証した。
- 参考スコア(独自算出の注目度): 21.40979740283219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certifiable local robustness, which rigorously precludes small-norm
adversarial examples, has received significant attention as a means of
addressing security concerns in deep learning. However, for some classification
problems, local robustness is not a natural objective, even in the presence of
adversaries; for example, if an image contains two classes of subjects, the
correct label for the image may be considered arbitrary between the two, and
thus enforcing strict separation between them is unnecessary. In this work, we
introduce two relaxed safety properties for classifiers that address this
observation: (1) relaxed top-k robustness, which serves as the analogue of
top-k accuracy; and (2) affinity robustness, which specifies which sets of
labels must be separated by a robustness margin, and which can be
$\epsilon$-close in $\ell_p$ space. We show how to construct models that can be
efficiently certified against each relaxed robustness property, and trained
with very little overhead relative to standard gradient descent. Finally, we
demonstrate experimentally that these relaxed variants of robustness are
well-suited to several significant classification problems, leading to lower
rejection rates and higher certified accuracies than can be obtained when
certifying "standard" local robustness.
- Abstract(参考訳): 認証された局所ロバスト性は、極小の敵の例を厳格に阻止するものであり、ディープラーニングにおけるセキュリティ問題に対処する手段として大きな注目を集めている。
しかし、いくつかの分類問題では、敵の存在下でも局所的堅牢性は自然な目的ではない。例えば、画像が2つの被写体のクラスを含む場合、画像の正しいラベルは2つの間に任意と見なすことができ、それらの間の厳密な分離を強制することは不要である。
本研究では,(1)トップk精度のアナログとして機能するストレートトップkロバスト性,(2)ロバストネスマージンによってどのラベル集合を分離する必要があるかを指定するアフィニティロバスト性,および$\ell_p$空間で$\epsilon$-closeとすることができる。
緩和された各強靭性特性に対して効率よく検証できるモデルの構築方法を示し、標準勾配降下に対するオーバーヘッドがほとんどない。
最後に、これらの緩和されたロバスト性変異はいくつかの重要な分類問題に適しており、「標準的な」局所ロバスト性を証明する際に得られるよりも低い拒絶率と高い認証精度をもたらすことを示した。
関連論文リスト
- Certified Robustness against Sparse Adversarial Perturbations via Data Localization [39.883465335244594]
本論では,MNISTデータセットとFashion-MNISTデータセットのスパース攻撃に対する信頼性の高いロバスト性において,この問題の幾何学を自然に組み込んだ単純な分類器であるBox-NNについて述べる。
論文 参考訳(メタデータ) (2024-05-23T05:02:00Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Taming Adversarial Robustness via Abstaining [7.1975923901054575]
我々は,観測を逆境によって摂動させることができる二元分類問題を考える。
我々は、予測に対する信頼度が低い場合に、分類器が決定を棄却する断定オプションを含む。
本研究では, 減衰領域の選択方法に関係なく, 両指標のトレードオフが存在することを示した。
論文 参考訳(メタデータ) (2021-04-06T07:36:48Z) - Consistent Non-Parametric Methods for Adaptive Robustness [26.016647703500887]
標準のロバストな学習フレームワークの大きな欠点は、すべての入力に適用される人工的なロバスト性半径$r$の固定です。
本稿では, 適応ロバスト性のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T00:44:07Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。