論文の概要: When are Non-Parametric Methods Robust?
- arxiv url: http://arxiv.org/abs/2003.06121v2
- Date: Mon, 28 Dec 2020 22:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:04:21.530441
- Title: When are Non-Parametric Methods Robust?
- Title(参考訳): 非パラメトリックメソッドはいつロバストなのか?
- Authors: Robi Bhattacharjee and Kamalika Chaudhuri
- Abstract要約: 一般的な非パラメトリックな手法について検討し、これらの修正に頑健な場合の理解をめざして検討する。
我々は、非パラメトリックな方法が r-一貫性を持つ一般的な条件を確立する。
- 参考スコア(独自算出の注目度): 30.56004276586835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A growing body of research has shown that many classifiers are susceptible to
{\em{adversarial examples}} -- small strategic modifications to test inputs
that lead to misclassification. In this work, we study general non-parametric
methods, with a view towards understanding when they are robust to these
modifications. We establish general conditions under which non-parametric
methods are r-consistent -- in the sense that they converge to optimally robust
and accurate classifiers in the large sample limit.
Concretely, our results show that when data is well-separated, nearest
neighbors and kernel classifiers are r-consistent, while histograms are not.
For general data distributions, we prove that preprocessing by Adversarial
Pruning (Yang et. al., 2019) -- that makes data well-separated -- followed by
nearest neighbors or kernel classifiers also leads to r-consistency.
- Abstract(参考訳): 増大する研究機関は、多くの分類器が、誤分類につながる入力をテストするための小さな戦略的な修正である {\em{adversarial example}} の影響を受けやすいことを示した。
本研究では, 一般的な非パラメトリックな手法について検討し, これらの修正に頑健な場合の理解に向けて考察する。
非パラメトリックな手法がr一貫性を持つような一般的な条件を、サンプル限界の最適にロバストで正確な分類器に収束するという意味で確立する。
具体的には, データの分離が良好である場合, 隣人やカーネルの分類器はrと一致し, ヒストグラムは一致しないことを示す。
一般的なデータ分布については、データを適切に分離するAdversarial Pruning(Yang et. al., 2019)による前処理が、隣人やカーネルの分類器に次いでr一貫性をもたらすことを証明します。
関連論文リスト
- Intriguing Properties of Robust Classification [19.858602457988194]
非現実的な大量のデータでのみ、ロバストな一般化が可能であることを示す。
CIFAR-10のようなデータセット上で,ロバストな分類器がいかに一般化するかを考察する。
論文 参考訳(メタデータ) (2024-12-05T15:27:39Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Malign Overfitting: Interpolation Can Provably Preclude Invariance [30.776243638012314]
補間にもかかわらずモデルを適切に一般化する「良性過剰適合」は、堅牢性や公正性が望ましい設定に好ましくない可能性があることを示す。
本研究では,非補間型分類器の確率的不変性を学習するアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-11-28T19:17:31Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration
Method [40.25499257944916]
実世界のデータセットは騒々しくラベル付けされ、クラス不均衡である。
本稿では,表現キャリブレーション手法RCALを提案する。
我々は,表現キャリブレーションの有効性を論じるために理論的結果を得る。
論文 参考訳(メタデータ) (2022-11-20T11:36:48Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。