論文の概要: ProBoost: a Boosting Method for Probabilistic Classifiers
- arxiv url: http://arxiv.org/abs/2209.01611v1
- Date: Sun, 4 Sep 2022 12:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 12:21:03.328586
- Title: ProBoost: a Boosting Method for Probabilistic Classifiers
- Title(参考訳): ProBoost:確率型分類器のブースティング方法
- Authors: F\'abio Mendon\c{c}a, Sheikh Shanawaz Mostafa, Fernando Morgado-Dias,
Antonio G. Ravelo-Garc\'ia, and M\'ario A. T. Figueiredo
- Abstract要約: ProBoostは確率的分類器のための新しいブースティングアルゴリズムである。
各トレーニングサンプルの不確実性を使用して、最も困難で不確実なものを決定する。
これは、最も不確実性が高いと判明したサンプルに徐々に焦点をあてる配列を生成する。
- 参考スコア(独自算出の注目度): 55.970609838687864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ProBoost, a new boosting algorithm for probabilistic classifiers, is proposed
in this work. This algorithm uses the epistemic uncertainty of each training
sample to determine the most challenging/uncertain ones; the relevance of these
samples is then increased for the next weak learner, producing a sequence that
progressively focuses on the samples found to have the highest uncertainty. In
the end, the weak learners' outputs are combined into a weighted ensemble of
classifiers. Three methods are proposed to manipulate the training set:
undersampling, oversampling, and weighting the training samples according to
the uncertainty estimated by the weak learners. Furthermore, two approaches are
studied regarding the ensemble combination. The weak learner herein considered
is a standard convolutional neural network, and the probabilistic models
underlying the uncertainty estimation use either variational inference or Monte
Carlo dropout. The experimental evaluation carried out on MNIST benchmark
datasets shows that ProBoost yields a significant performance improvement. The
results are further highlighted by assessing the relative achievable
improvement, a metric proposed in this work, which shows that a model with only
four weak learners leads to an improvement exceeding 12% in this metric (for
either accuracy, sensitivity, or specificity), in comparison to the model
learned without ProBoost.
- Abstract(参考訳): 本研究では,確率的分類器のための新しいブースティングアルゴリズムproboostを提案する。
このアルゴリズムは、各トレーニングサンプルの認識論的不確実性を利用して、最も挑戦的かつ未確認のものを決定する; そして、これらのサンプルの関連性は、次の弱い学習者のために増大し、最も不確実性が高いと判明したサンプルに徐々に焦点を合わせるシーケンスを生成する。
最後に、弱い学習者の出力を重み付けした分類器のアンサンブルに結合する。
弱い学習者によって推定される不確実性に応じて,学習セットのアンダーサンプリング,オーバーサンプリング,重み付けを行う3つの手法が提案されている。
さらに,アンサンブルの組み合わせについて2つの考察を行った。
ここで考慮されている弱い学習者は標準畳み込みニューラルネットワークであり、不確実性推定の基礎となる確率モデルは変分推論かモンテカルロドロップアウトのいずれかを使用する。
MNISTベンチマークデータセットで行った実験の結果、ProBoostは大幅な性能向上をもたらすことが示された。
その結果,4人の弱い学習者しか持たないモデルが,ProBoostを使わずに学習したモデルと比較して12%以上の改善(精度,感度,特異性)をもたらすことを示す指標として,比較的達成可能な改善を評価することでさらに強調された。
関連論文リスト
- Sample-Efficient Agnostic Boosting [19.15484761265653]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、既知のすべてのブースティングアルゴリズムよりも4次的に標本効率が高いという、不可知的なブースティング手法を超越している。
アルゴリズムの重要な特徴は、一様収束引数のブラックボックスアプリケーションで得られるものよりも厳密な一般化誤差を保証しつつ、複数ラウンドのブースティングのサンプルを再利用する能力を活用することである。
論文 参考訳(メタデータ) (2024-10-31T04:50:29Z) - Bayesian Estimate of Mean Proper Scores for Diversity-Enhanced Active
Learning [6.704927458661697]
期待されている損失削減(ELR)は、分類誤差の低減と、同じフレームワークに適合するより一般的なコストのベイズ推定に焦点を当てている。
本研究では,平均値スコア(BEMPS)のベイズ推定を行い,厳密なスコアの増加を推定する。
我々は,BEMPSが頑健な獲得関数とよく校正された分類器を出力し,他の試験よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-12-15T11:02:17Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Pixel is All You Need: Adversarial Trajectory-Ensemble Active Learning
for Salient Object Detection [40.97103355628434]
弱教師付きデータで訓練されたサリエンシモデルがその完全教師付きバージョンの同等のパフォーマンスを達成できるかどうかは不明である。
我々は,新しい対向軌道アンサンブルアクティブラーニング(ATAL)を提案する。
実験の結果、私たちのALTはそのようなポイントラベル付きデータセットを見つけることができ、トレーニングされたサリエンシモデルは、イメージ毎に10の注釈付きポイントしか持たないフル教師付きバージョンの97%$ --99%のパフォーマンスを得ることができた。
論文 参考訳(メタデータ) (2022-12-13T11:18:08Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。