論文の概要: Robustness quantification: a new method for assessing the reliability of the predictions of a classifier
- arxiv url: http://arxiv.org/abs/2503.22418v2
- Date: Thu, 10 Apr 2025 02:05:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:19:22.622249
- Title: Robustness quantification: a new method for assessing the reliability of the predictions of a classifier
- Title(参考訳): ロバストネス定量化--分類器の予測の信頼性を評価する新しい方法
- Authors: Adrián Detavernier, Jasper De Bock,
- Abstract要約: 本研究では、不正確な確率の分野における既存の考え方に基づいて、生成確率分類器の個人予測の信頼性を評価するための新しいアプローチを提案する。
我々は、このアプローチをロバストネス定量化と呼び、不確実性定量化と比較し、シフト分布からサンプリングされた小さなトレーニングセットから学習した分類器でさえもうまく機能し続けていることを示した。
- 参考スコア(独自算出の注目度): 0.14732811715354452
- License:
- Abstract: Based on existing ideas in the field of imprecise probabilities, we present a new approach for assessing the reliability of the individual predictions of a generative probabilistic classifier. We call this approach robustness quantification, compare it to uncertainty quantification, and demonstrate that it continues to work well even for classifiers that are learned from small training sets that are sampled from a shifted distribution.
- Abstract(参考訳): 本研究では、不正確な確率の分野における既存の考え方に基づいて、生成確率分類器の個人予測の信頼性を評価するための新しいアプローチを提案する。
我々は、このアプローチをロバストネス定量化と呼び、不確実性定量化と比較し、シフト分布からサンプリングされた小さなトレーニングセットから学習した分類器でさえもうまく機能し続けていることを示した。
関連論文リスト
- Trustworthy Classification through Rank-Based Conformal Prediction Sets [9.559062601251464]
本稿では,分類モデルに適したランクベーススコア関数を用いた新しいコンフォメーション予測手法を提案する。
提案手法は,そのサイズを管理しながら,所望のカバレッジ率を達成する予測セットを構築する。
コントリビューションには、新しい共形予測法、理論的解析、経験的評価が含まれる。
論文 参考訳(メタデータ) (2024-07-05T10:43:41Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Bayesian Quantification with Black-Box Estimators [1.599072005190786]
調整された分類と数、ブラックボックスシフト推定器、不変比推定器などのアプローチでは、クラス分布を推定し、弱い仮定の下で保証を得る補助的(および潜在的に偏りのある)ブラックボックス分類器を用いる。
これら全てのアルゴリズムが特定のベイズ連鎖モデルにおける推論と密接に関連していることを示し、仮定された基底構造生成過程を近似する。
次に,導入モデルに対する効率的なマルコフ・モンテカルロサンプリング手法について検討し,大容量データ限界における一貫性の保証を示す。
論文 参考訳(メタデータ) (2023-02-17T22:10:04Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - ProBoost: a Boosting Method for Probabilistic Classifiers [55.970609838687864]
ProBoostは確率的分類器のための新しいブースティングアルゴリズムである。
各トレーニングサンプルの不確実性を使用して、最も困難で不確実なものを決定する。
これは、最も不確実性が高いと判明したサンプルに徐々に焦点をあてる配列を生成する。
論文 参考訳(メタデータ) (2022-09-04T12:49:20Z) - Credal Self-Supervised Learning [0.0]
未ラベルのインスタンスに対して,学習者が"擬似スーパービジョン"を生成する方法を示す。
整合性正規化と組み合わせて、擬似ラベルは様々な領域で有望な性能を示している。
我々は、我々の方法論を最先端のセルフスーパービジョンアプローチと比較する。
論文 参考訳(メタデータ) (2021-06-22T15:19:04Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z) - Probabilistic Deep Learning for Instance Segmentation [9.62543698736491]
提案手法は,提案不要なインスタンスセグメンテーションモデルにおけるモデル独立不確実性推定値を得るための汎用的な手法である。
本手法は,BBBC010 C. elegansデータセットを用いて評価し,競合性能を示す。
論文 参考訳(メタデータ) (2020-08-24T19:51:48Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。