論文の概要: Building a stable classifier with the inflated argmax
- arxiv url: http://arxiv.org/abs/2405.14064v1
- Date: Wed, 22 May 2024 23:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:34:41.505719
- Title: Building a stable classifier with the inflated argmax
- Title(参考訳): 膨らんだargmaxによる安定な分類器の構築
- Authors: Jake A. Soloff, Rina Foygel Barber, Rebecca Willett,
- Abstract要約: マルチクラス分類の文脈におけるアルゴリズム安定性のための新しい枠組みを提案する。
この種のアプローチの欠点は、本質的に不安定であることであり、トレーニングデータのわずかな摂動に非常に敏感であることである。
- 参考スコア(独自算出の注目度): 11.456416081243654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new framework for algorithmic stability in the context of multiclass classification. In practice, classification algorithms often operate by first assigning a continuous score (for instance, an estimated probability) to each possible label, then taking the maximizer -- i.e., selecting the class that has the highest score. A drawback of this type of approach is that it is inherently unstable, meaning that it is very sensitive to slight perturbations of the training data, since taking the maximizer is discontinuous. Motivated by this challenge, we propose a pipeline for constructing stable classifiers from data, using bagging (i.e., resampling and averaging) to produce stable continuous scores, and then using a stable relaxation of argmax, which we call the "inflated argmax," to convert these scores to a set of candidate labels. The resulting stability guarantee places no distributional assumptions on the data, does not depend on the number of classes or dimensionality of the covariates, and holds for any base classifier. Using a common benchmark data set, we demonstrate that the inflated argmax provides necessary protection against unstable classifiers, without loss of accuracy.
- Abstract(参考訳): マルチクラス分類の文脈におけるアルゴリズム安定性のための新しい枠組みを提案する。
実際には、分類アルゴリズムは、まず連続的なスコア(例えば、推定確率)をそれぞれのラベルに割り当て、次に最大値(つまり、最高値を持つクラスを選択する)を取る。
この種のアプローチの欠点は、それが本質的に不安定であることであり、最大化が不連続であることから、トレーニングデータのわずかな摂動に非常に敏感であることである。
この課題に乗じて,データから安定な分類器を構築するパイプラインを提案し,バッジ(再サンプリングと平均化)を用いて安定な連続スコアを生成し,次いで「膨らませたargmax」と呼ばれるargmaxの安定な緩和を用いて,これらのスコアを候補ラベルの集合に変換する。
結果として生じる安定性は、データに分布的な仮定が存在しないことを保証し、同変数のクラス数や次元に依存せず、任意の基底分類器を保持できる。
一般的なベンチマークデータセットを用いて,拡張されたargmaxが不安定な分類器に対して,精度を損なうことなく,必要な保護を提供することを示した。
関連論文リスト
- Fractional Naive Bayes (FNB): non-convex optimization for a parsimonious weighted selective naive Bayes classifier [0.0]
非常に多数の入力変数を持つデータセットの分類を監督した。
本稿では,このモデルを用いたBalihoodの正規化を提案する。
提案したアルゴリズムは最適化に基づく重み付けNa"iveesスキームをもたらす。
論文 参考訳(メタデータ) (2024-09-17T11:54:14Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Scalable Optimal Classifiers for Adversarial Settings under Uncertainty [10.90668635921398]
本稿では,攻撃者に対して目的が不明な攻撃者がクラス-1データを生成する対角的設定において,最適な分類器を見つけることの問題点を考察する。
この低次元キャラクタリゼーションにより,ほぼほぼ最適な分類器をスケーラブルに計算する訓練手法が開発可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T13:33:53Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Being Bayesian about Categorical Probability [6.875312133832079]
クラスラベルに対する分類的確率の確率変数を考える。
この枠組みでは、先行分布は観測されたラベルに固有の推定ノイズを明示的にモデル化する。
本手法は,計算オーバーヘッドが無視できるプラグアンドプレイ損失関数として実装することができる。
論文 参考訳(メタデータ) (2020-02-19T02:35:32Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。