論文の概要: LOCUS: A Distribution-Free Loss-Quantile Score for Risk-Aware Predictions
- arxiv url: http://arxiv.org/abs/2603.01971v1
- Date: Mon, 02 Mar 2026 15:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.936524
- Title: LOCUS: A Distribution-Free Loss-Quantile Score for Risk-Aware Predictions
- Title(参考訳): LOCUS:リスク認識予測のための分散フリーの損失品質スコア
- Authors: Matheus Barreto, Mário de Castro, Thiago R. Ramos, Denis Valle, Rafael Izbicki,
- Abstract要約: Locus は分布のないラッパーであり、固定予測関数に対する入出力損失スケールの信頼性スコアを生成する。
Locusはリスクランキングを効果的に獲得し、標準回帰よりも大きなロス周波数を低減できることを示す。
- 参考スコア(独自算出の注目度): 1.8840155706520811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern machine learning models can be accurate on average yet still make mistakes that dominate deployment cost. We introduce Locus, a distribution-free wrapper that produces a per-input loss-scale reliability score for a fixed prediction function. Rather than quantifying uncertainty about the label, Locus models the realized loss of the prediction function using any engine that outputs a predictive distribution for the loss given an input. A simple split-calibration step turns this function into a distribution-free interpretable score that is comparable across inputs and can be read as an upper loss level. The score is useful on its own for ranking, and it can optionally be thresholded to obtain a transparent flagging rule with distribution-free control of large-loss events. Experiments across 13 regression benchmarks show that Locus yields effective risk ranking and reduces large-loss frequency compared to standard heuristics.
- Abstract(参考訳): 現代の機械学習モデルは平均して正確だが、それでもデプロイメントコストを支配しているミスを犯すことがある。
固定予測関数に対して,各入出力損失スケールの信頼性スコアを生成する分散フリーラッパーであるLocusを導入する。
ラベルに関する不確実性を定量化する代わりに、Locusは入力が与えられた損失に対する予測分布を出力するエンジンを使用して予測関数の現実的な損失をモデル化する。
単純な分割校正ステップは、この関数を、入力に匹敵する分布自由な解釈可能なスコアに変換し、上位の損失レベルとして読み取ることができる。
スコアはそれ自体がランキングに有用であり、大容量イベントの分布制御のない透明なフラグングルールを得るために、オプションでしきい値を設定することができる。
13の回帰ベンチマークによる実験により、ローカスは通常のヒューリスティックと比べて効果的なリスクランク付けを行い、大きな損失周波数を減少させることが示された。
関連論文リスト
- Probability-Entropy Calibration: An Elastic Indicator for Adaptive Fine-tuning [55.2818264614932]
RankTunerは確率エントロピーキャリブレーション信号、相対ランクインジケータを導入し、予測分布の下で接地トラストークンのランクと期待ランクを比較する。
逆インジケータはトークン単位の相対尺度として使用され、微調整の目的を再重み付けし、真に未学習のトークンを更新する。
論文 参考訳(メタデータ) (2026-02-02T07:27:19Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Dirichlet-Based Prediction Calibration for Learning with Noisy Labels [40.78497779769083]
雑音ラベルによる学習はディープニューラルネットワーク(DNN)の一般化性能を著しく損なう
既存のアプローチでは、損失補正やサンプル選択手法によってこの問題に対処している。
そこで我々は,textitDirichlet-based Prediction (DPC) 法を解法として提案する。
論文 参考訳(メタデータ) (2024-01-13T12:33:04Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Beyond calibration: estimating the grouping loss of modern neural
networks [68.8204255655161]
適切なスコアリングルール理論は、キャリブレーション損失が与えられた場合、個々のエラーを特徴づける欠片がグループ化損失であることを示している。
視覚およびNLPにおける現代のニューラルネットワークアーキテクチャは、特に分散シフト設定においてグループ化損失を示す。
論文 参考訳(メタデータ) (2022-10-28T07:04:20Z) - GSC Loss: A Gaussian Score Calibrating Loss for Deep Learning [16.260520216972854]
ディープニューラルネットワーク(DNN)が生み出す予測スコアを校正するために,一般ガウススコア校正(GSC)損失を提案する。
10以上のベンチマークデータセットに対する大規模な実験は、提案されたGSC損失が、さまざまな視覚的タスクにおいて一貫した、重要なパフォーマンス向上をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-03-02T02:52:23Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。