論文の概要: Random Forest Calibration
- arxiv url: http://arxiv.org/abs/2501.16756v1
- Date: Tue, 28 Jan 2025 07:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:41:01.395497
- Title: Random Forest Calibration
- Title(参考訳): ランダム森林校正
- Authors: Mohammad Hossein Shaker, Eyke Hüllermeier,
- Abstract要約: ランダムフォレスト(RF)は、他の機械学習手法と比較して比較的よく校正されているとしばしば主張されている。
等調回帰のような従来のキャリブレーション法は、RF確率推定のキャリブレーションを著しく向上させるものではない。
最適化されたRFは,従来のキャリブレーション手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 21.602569813024
- License:
- Abstract: The Random Forest (RF) classifier is often claimed to be relatively well calibrated when compared with other machine learning methods. Moreover, the existing literature suggests that traditional calibration methods, such as isotonic regression, do not substantially enhance the calibration of RF probability estimates unless supplied with extensive calibration data sets, which can represent a significant obstacle in cases of limited data availability. Nevertheless, there seems to be no comprehensive study validating such claims and systematically comparing state-of-the-art calibration methods specifically for RF. To close this gap, we investigate a broad spectrum of calibration methods tailored to or at least applicable to RF, ranging from scaling techniques to more advanced algorithms. Our results based on synthetic as well as real-world data unravel the intricacies of RF probability estimates, scrutinize the impacts of hyper-parameters, compare calibration methods in a systematic way. We show that a well-optimized RF performs as well as or better than leading calibration approaches.
- Abstract(参考訳): ランダムフォレスト(RF)分類器は、他の機械学習手法と比較して比較的よく校正されているとしばしば主張される。
さらに,従来の等調回帰法のようなキャリブレーション手法は,広範囲なキャリブレーションデータセットが提供されない限り,RF推定値のキャリブレーションを著しく向上させるものではないことが示唆されている。
それにもかかわらず、これらの主張を検証し、RFに特化して最先端の校正手法を体系的に比較する包括的な研究はないようである。
このギャップを埋めるために、スケーリング技術からより高度なアルゴリズムまで、RFに適した、少なくとも適用可能なキャリブレーション手法の幅広いスペクトルについて検討する。
RF推定の複雑さを解明し,ハイパーパラメータの影響を精査し,キャリブレーション法を系統的に比較した。
最適化されたRFは,従来のキャリブレーション手法よりも優れた性能を示す。
関連論文リスト
- Calibrating Deep Neural Network using Euclidean Distance [5.675312975435121]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Adaptive Dimension Reduction and Variational Inference for Transductive
Few-Shot Classification [2.922007656878633]
適応次元の削減によりさらに改善された変分ベイズ推定に基づく新しいクラスタリング法を提案する。
提案手法は,Few-Shotベンチマークにおける現実的非バランスなトランスダクティブ設定の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-09-18T10:29:02Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - Calibration Error for Heterogeneous Treatment Effects [2.730388253761138]
ヘテロジニアス処理効果(HTE)のためのロバストな推定器を提案する。
我々のアプローチは、二重に頑健な治療効果推定器によって動機付けられ、不偏で、補充、過度な適合、高次元性の問題に耐性がある。
本稿では,提案手法を用いて学習したHTEモデルの校正評価を行い,CRITEO-UPLIFT試験への適用について述べる。
論文 参考訳(メタデータ) (2022-03-24T22:10:43Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。