論文の概要: Consistent Non-Parametric Methods for Adaptive Robustness
- arxiv url: http://arxiv.org/abs/2102.09086v1
- Date: Thu, 18 Feb 2021 00:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 19:18:44.089257
- Title: Consistent Non-Parametric Methods for Adaptive Robustness
- Title(参考訳): 適応ロバストネスの一貫した非パラメトリック法
- Authors: Robi Bhattacharjee and Kamalika Chaudhuri
- Abstract要約: 標準のロバストな学習フレームワークの大きな欠点は、すべての入力に適用される人工的なロバスト性半径$r$の固定です。
本稿では, 適応ロバスト性のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.016647703500887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning classifiers that are robust to adversarial examples has received a
great deal of recent attention. A major drawback of the standard robust
learning framework is the imposition of an artificial robustness radius $r$
that applies to all inputs, and ignores the fact that data may be highly
heterogeneous. In this paper, we address this limitation by proposing a new
framework for adaptive robustness, called neighborhood preserving robustness.
We present sufficient conditions under which general non-parametric methods
that can be represented as weight functions satisfy our notion of robustness,
and show that both nearest neighbors and kernel classifiers satisfy these
conditions in the large sample limit.
- Abstract(参考訳): 相手の例に堅牢な学習分類器は、最近多くの注目を集めています。
標準ロバスト学習フレームワークの大きな欠点は、すべての入力に適用される人工ロバスト性半径$r$の付与であり、データが非常に不均一であるという事実を無視している。
本論文では,適応的堅牢性のための新たなフレームワークを提案することにより,この制限に対処する。
重み関数として表現できる一般的な非パラメトリックな手法がロバスト性の概念を満足する十分な条件を示し、隣人およびカーネル分類器の両方が大きなサンプル極限でこれらの条件を満たすことを示す。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - GSmooth: Certified Robustness against Semantic Transformations via
Generalized Randomized Smoothing [40.38555458216436]
一般的な意味変換に対する堅牢性を証明するための統一的な理論的枠組みを提案する。
GSmoothフレームワークでは,画像と画像の代理ネットワークを用いて複雑な変換を近似するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-09T07:12:17Z) - Quantifying Robustness to Adversarial Word Substitutions [24.164523751390053]
深層学習に基づくNLPモデルは単語置換摂動に弱いことが判明した。
単語レベルの堅牢性を評価するための形式的枠組みを提案する。
メトリックは、BERTのような最先端のモデルが、いくつかの単語置換によって簡単に騙される理由を理解するのに役立ちます。
論文 参考訳(メタデータ) (2022-01-11T08:18:39Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - How to compare adversarial robustness of classifiers from a global
perspective [0.0]
敵対的攻撃は、機械学習モデルの信頼性と信頼性を損なう。
特定の脅威モデルのポイントワイド測度は、現在、分類器の堅牢性を比較するための最も一般的なツールである。
本研究では,最近提案されたロバストネス曲線を用いて,ポイントワイド測度が重要なグローバルな特性を捉えることができないことを示す。
論文 参考訳(メタデータ) (2020-04-22T22:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。