論文の概要: Calibrate: Interactive Analysis of Probabilistic Model Output
- arxiv url: http://arxiv.org/abs/2207.13770v1
- Date: Wed, 27 Jul 2022 20:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:57:48.947874
- Title: Calibrate: Interactive Analysis of Probabilistic Model Output
- Title(参考訳): Calibrate:確率的モデル出力のインタラクティブ分析
- Authors: Peter Xenopoulos, Joao Rulff, Luis Gustavo Nonato, Brian Barr, Claudio
Silva
- Abstract要約: 従来の手法の欠点に耐性のある,インタラクティブな信頼性図であるCalibrateを提示する。
実世界のデータと合成データの両方のユースケースを通じて、Calibrateの実用性を実証する。
- 参考スコア(独自算出の注目度): 5.444048397001003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing classification model performance is a crucial task for machine
learning practitioners. While practitioners often use count-based metrics
derived from confusion matrices, like accuracy, many applications, such as
weather prediction, sports betting, or patient risk prediction, rely on a
classifier's predicted probabilities rather than predicted labels. In these
instances, practitioners are concerned with producing a calibrated model, that
is, one which outputs probabilities that reflect those of the true
distribution. Model calibration is often analyzed visually, through static
reliability diagrams, however, the traditional calibration visualization may
suffer from a variety of drawbacks due to the strong aggregations it
necessitates. Furthermore, count-based approaches are unable to sufficiently
analyze model calibration. We present Calibrate, an interactive reliability
diagram that addresses the aforementioned issues. Calibrate constructs a
reliability diagram that is resistant to drawbacks in traditional approaches,
and allows for interactive subgroup analysis and instance-level inspection. We
demonstrate the utility of Calibrate through use cases on both real-world and
synthetic data. We further validate Calibrate by presenting the results of a
think-aloud experiment with data scientists who routinely analyze model
calibration.
- Abstract(参考訳): 分類モデルのパフォーマンス分析は、機械学習の実践者にとって重要なタスクである。
専門家は、精度などの混乱行列から導かれるカウントベースのメトリクスを使用することが多いが、天気予報、スポーツの賭け、患者リスク予測といった多くの応用は、予測されたラベルよりも分類者の予測確率に依存する。
これらの例では、実践者は校正されたモデル、すなわち真の分布を反映した確率を出力することに関心がある。
モデルキャリブレーションはしばしば、静的な信頼性図を通して視覚的に分析されるが、従来のキャリブレーションの可視化は、それが必要とする強い集約のために様々な欠点を被る可能性がある。
さらに、カウントベースアプローチでは、モデルのキャリブレーションを十分に分析できない。
上記の問題に対処するインタラクティブな信頼性図であるcalibrateを提案する。
calibrateは従来のアプローチの欠点に耐性のある信頼性図を構築し、対話型サブグループ分析とインスタンスレベルの検査を可能にする。
実世界のデータと合成データの両方のユースケースを通じて、Calibrateの実用性を実証する。
さらに,モデルキャリブレーションを日常的に分析するデータサイエンティストに対して,シンクアルード実験の結果を提示することにより,キャリブレートの検証を行う。
関連論文リスト
- Reassessing How to Compare and Improve the Calibration of Machine Learning Models [7.183341902583164]
結果の予測確率がモデル予測に基づいてその結果の観測周波数と一致した場合、機械学習モデルを校正する。
キャリブレーションと予測の指標が追加の一般化の指標を伴わない限り、最先端のように見えるような簡単な再校正手法が存在することを示す。
論文 参考訳(メタデータ) (2024-06-06T13:33:45Z) - Confidence-Aware Multi-Field Model Calibration [39.44356123378625]
フィールド対応キャリブレーションは、異なる特徴フィールド値のモデル出力を調整することで、きめ細かい広告要求を満たすことができる。
本稿では,サンプル統計から得られた信頼度に基づいてキャリブレーション強度を適応的に調整する,信頼性を考慮したマルチフィールドキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T16:24:28Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Calibration tests beyond classification [30.616624345970973]
ほとんどの教師付き機械学習タスクは、既約予測エラーを被る。
確率論的予測モデルは、妥当な目標に対する信念を表す確率分布を提供することによって、この制限に対処する。
校正されたモデルは、予測が過信でも過信でもないことを保証します。
論文 参考訳(メタデータ) (2022-10-21T09:49:57Z) - Variable-Based Calibration for Machine Learning Classifiers [11.9995808096481]
モデルのキャリブレーション特性を特徴付けるために,変数ベースのキャリブレーションの概念を導入する。
ほぼ完全なキャリブレーション誤差を持つモデルでは,データの特徴の関数としてかなりの誤校正が期待できることがわかった。
論文 参考訳(メタデータ) (2022-09-30T00:49:31Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。