論文の概要: Bridging Cost-sensitive and Neyman-Pearson Paradigms for Asymmetric
Binary Classification
- arxiv url: http://arxiv.org/abs/2012.14951v1
- Date: Tue, 29 Dec 2020 21:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:45:21.243778
- Title: Bridging Cost-sensitive and Neyman-Pearson Paradigms for Asymmetric
Binary Classification
- Title(参考訳): 非対称二元分類のためのブリッジングコストセンシティブとニーマン・ピアソンパラダイム
- Authors: Wei Vivian Li, Xin Tong, Jingyi Jessica Li
- Abstract要約: コスト感受性とノイマン・ピアソンのパラダイムの方法論的関連性を検討する。
2つのパラダイムを橋渡しするTUBE-CSアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 12.083020037901651
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Asymmetric binary classification problems, in which the type I and II errors
have unequal severity, are ubiquitous in real-world applications. To handle
such asymmetry, researchers have developed the cost-sensitive and
Neyman-Pearson paradigms for training classifiers to control the more severe
type of classification error, say the type I error. The cost-sensitive paradigm
is widely used and has straightforward implementations that do not require
sample splitting; however, it demands an explicit specification of the costs of
the type I and II errors, and an open question is what specification can
guarantee a high-probability control on the population type I error. In
contrast, the Neyman-Pearson paradigm can train classifiers to achieve a
high-probability control of the population type I error, but it relies on
sample splitting that reduces the effective training sample size. Since the two
paradigms have complementary strengths, it is reasonable to combine their
strengths for classifier construction. In this work, we for the first time
study the methodological connections between the two paradigms, and we develop
the TUBE-CS algorithm to bridge the two paradigms from the perspective of
controlling the population type I error.
- Abstract(参考訳): タイプIとIIのエラーが不等な重大性を持つ非対称二項分類問題は、実世界の応用においてユビキタスである。
このような非対称性に対処するために、研究者は、タイプiエラーのようなより厳格な分類エラーを制御するために分類器を訓練するためのコストに敏感でニーマン・ピアソンのパラダイムを開発した。
コストに敏感なパラダイムは広く使われており、サンプル分割を必要としない単純な実装を持っているが、I型とII型のエラーのコストを明確に指定する必要がある。
対照的に、Neyman-Pearsonパラダイムは分類器を訓練することで、集団I型エラーの高確率制御を実現することができるが、効果的なトレーニングサンプルサイズを減らすサンプル分割に依存している。
2つのパラダイムは相補的な強みを持つので、それらの強みを分類器の構成に組み合わせるのが妥当である。
本研究では,この2つのパラダイム間の方法論的接続を初めて研究し,この2つのパラダイムを集団i型エラーの制御の観点から橋渡しするための tube-cs アルゴリズムを開発した。
関連論文リスト
- HG-Adapter: Improving Pre-Trained Heterogeneous Graph Neural Networks with Dual Adapters [53.97380482341493]
事前学習, 即時学習」は, 事前学習したヘテロジニアスグラフニューラルネットワーク(HGNN)のチューニング性能を示す。
本稿では、2つの新しいアダプタと潜在的ラベル付きデータ拡張を組み合わせた統合フレームワークを提案し、事前学習されたHGNNモデルの一般化を改善する。
論文 参考訳(メタデータ) (2024-11-02T06:43:54Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Bilateral Dependency Optimization: Defending Against Model-inversion
Attacks [61.78426165008083]
本稿では,モデル反転攻撃に対する二元的依存性最適化(BiDO)戦略を提案する。
BiDOは、さまざまなデータセット、分類器、MI攻撃に対する最先端の防御性能を達成する。
論文 参考訳(メタデータ) (2022-06-11T10:07:03Z) - Asymmetric error control under imperfect supervision: a
label-noise-adjusted Neyman-Pearson umbrella algorithm [9.680436421852768]
Neyman-Pearson(NP)分類パラダイムは、望ましいレベルでより厳しいタイプのエラーを制約する。
NPパラダイムに基づくトレーニングラベルノイズに対して,ほとんどの最先端分類手法を適応する最初の理論支援アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-01T07:10:19Z) - Towards Practical Adam: Non-Convexity, Convergence Theory, and
Mini-Batch Acceleration [12.744658958445024]
Adamは、ディープニューラルネットワークをトレーニングするための最も影響力のある適応アルゴリズムの1つです。
適応学習率の低下、大きなバッチサイズの採用など、既存のアプローチは、Adam型アルゴリズムの収束を促進しようとしている。
本稿では,履歴ベース学習率のパラメータにのみ依存する,代替的な簡易チェック条件を提案する。
論文 参考訳(メタデータ) (2021-01-14T06:42:29Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z) - Imbalanced classification: a paradigm-based review [21.578692329486643]
クラス不均衡問題に対処する複数の再サンプリング手法が提案されている。
それぞれのテクニックをいつ使うかについては、一般的なガイダンスはない。
不均衡なクラスサイズ下でのバイナリ分類のための共通再サンプリング手法をパラダイムベースでレビューする。
論文 参考訳(メタデータ) (2020-02-11T18:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。