論文の概要: Performance-Agnostic Fusion of Probabilistic Classifier Outputs
- arxiv url: http://arxiv.org/abs/2009.00565v1
- Date: Tue, 1 Sep 2020 16:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:43:42.841312
- Title: Performance-Agnostic Fusion of Probabilistic Classifier Outputs
- Title(参考訳): 確率的分類器出力の性能非依存融合
- Authors: Jordan F. Masakuna, Simukai W. Utete, Steve Kroon
- Abstract要約: 本稿では,1つのコンセンサスクラス予測を行うために,分類器の確率的出力を組み合わせる手法を提案する。
提案手法は,精度が性能指標である状況において有効である。
キャリブレーションされた確率を出力しないので、そのような確率がさらなる処理に必要となる状況には適さない。
- 参考スコア(独自算出の注目度): 2.4206828137867107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for combining probabilistic outputs of classifiers to
make a single consensus class prediction when no further information about the
individual classifiers is available, beyond that they have been trained for the
same task. The lack of relevant prior information rules out typical
applications of Bayesian or Dempster-Shafer methods, and the default approach
here would be methods based on the principle of indifference, such as the sum
or product rule, which essentially weight all classifiers equally. In contrast,
our approach considers the diversity between the outputs of the various
classifiers, iteratively updating predictions based on their correspondence
with other predictions until the predictions converge to a consensus decision.
The intuition behind this approach is that classifiers trained for the same
task should typically exhibit regularities in their outputs on a new task; the
predictions of classifiers which differ significantly from those of others are
thus given less credence using our approach. The approach implicitly assumes a
symmetric loss function, in that the relative cost of various prediction errors
are not taken into account. Performance of the model is demonstrated on
different benchmark datasets. Our proposed method works well in situations
where accuracy is the performance metric; however, it does not output
calibrated probabilities, so it is not suitable in situations where such
probabilities are required for further processing.
- Abstract(参考訳): そこで本研究では,個別の分類器に関する情報が得られない場合に,分類器の確率的出力を組み合わせて単一のコンセンサスクラス予測を行う手法を提案する。
関連する事前情報の欠如はベイズ法やデンプスター・シェーファー法の典型的な応用を除外し、ここでの既定のアプローチは和や積規則のような無関心の原理に基づく手法であり、これは本質的にすべての分類器を等しく重み付けするものである。
対照的に,提案手法では,様々な分類器の出力間の多様性を検討し,予測がコンセンサス決定に収束するまで,他の予測との対応に基づいて予測を反復的に更新する。
このアプローチの背景にある直感は、同じタスクのために訓練された分類器は、通常、新しいタスクの出力に正規性を示すべきであるということである。
このアプローチは、様々な予測誤差の相対コストが考慮されないような対称損失関数を暗黙的に仮定する。
モデルのパフォーマンスは、さまざまなベンチマークデータセットで実証される。
提案手法は,精度が性能指標である状況では有効であるが,キャリブレーションされた確率を出力しないため,さらなる処理にそのような確率が必要な状況では適さない。
関連論文リスト
- Trustworthy Classification through Rank-Based Conformal Prediction Sets [9.559062601251464]
本稿では,分類モデルに適したランクベーススコア関数を用いた新しいコンフォメーション予測手法を提案する。
提案手法は,そのサイズを管理しながら,所望のカバレッジ率を達成する予測セットを構築する。
コントリビューションには、新しい共形予測法、理論的解析、経験的評価が含まれる。
論文 参考訳(メタデータ) (2024-07-05T10:43:41Z) - Invariant Probabilistic Prediction [45.90606906307022]
任意の分布シフトは、一般に不変かつ頑健な確率的予測を認めないことを示す。
Invariant probabilistic predictions called IPP, and study the consistency of the underlying parameters。
論文 参考訳(メタデータ) (2023-09-18T18:50:24Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - From Classification Accuracy to Proper Scoring Rules: Elicitability of
Probabilistic Top List Predictions [0.0]
単クラス予測と予測分布のギャップを埋める新しいタイプの分類予測法を提案する。
提案した評価指標は,対称的固有スコアリングルールに基づいて,様々な種類の予測の比較を許容する。
論文 参考訳(メタデータ) (2023-01-27T15:55:01Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Optimal strategies for reject option classifiers [0.0]
拒絶オプションの分類では、分類器は予測から逸脱する不確実なケースで許可される。
我々は、最小選択リスクと保証カバレッジを持つ分類器を求める有界被覆モデルという対称的な定義を作成した。
任意のブラックボックス分類器の例から適切な不確かさスコアを学習するための2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-29T11:09:32Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。