論文の概要: Combining Predictions under Uncertainty: The Case of Random Decision
Trees
- arxiv url: http://arxiv.org/abs/2208.07403v1
- Date: Mon, 15 Aug 2022 18:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:06:17.418487
- Title: Combining Predictions under Uncertainty: The Case of Random Decision
Trees
- Title(参考訳): 不確実性下における予測の組み合わせ:ランダム決定木の場合
- Authors: Florian Busch, Moritz Kulessa, Eneldo Loza Menc\'ia and Hendrik
Blockeel
- Abstract要約: 決定ツリーのアンサンブルにおける分類推定を集約する一般的なアプローチは、投票または各クラスの確率を平均化することである。
本稿では,いくつかの代替予測手法について検討する。
我々の手法は確率、信念関数、信頼できる分類の理論にインスパイアされている。
- 参考スコア(独自算出の注目度): 2.322689362836168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common approach to aggregate classification estimates in an ensemble of
decision trees is to either use voting or to average the probabilities for each
class. The latter takes uncertainty into account, but not the reliability of
the uncertainty estimates (so to say, the "uncertainty about the uncertainty").
More generally, much remains unknown about how to best combine probabilistic
estimates from multiple sources. In this paper, we investigate a number of
alternative prediction methods. Our methods are inspired by the theories of
probability, belief functions and reliable classification, as well as a
principle that we call evidence accumulation. Our experiments on a variety of
data sets are based on random decision trees which guarantees a high diversity
in the predictions to be combined. Somewhat unexpectedly, we found that taking
the average over the probabilities is actually hard to beat. However, evidence
accumulation showed consistently better results on all but very small leafs.
- Abstract(参考訳): 決定木の集合における分類推定を集約する一般的なアプローチは、投票または各クラスの確率を平均化することである。
後者は不確実性を考慮するが、不確実性推定の信頼性は考慮しない(つまり「不確実性の不確実性」)。
より一般的には、複数のソースからの確率的見積もりを最もうまく組み合わせる方法については、まだ多くのことが不明である。
本稿では,いくつかの代替予測手法について検討する。
我々の方法は、確率論、信念関数、信頼できる分類の理論、そして証拠の蓄積と呼ぶ原理に触発されている。
様々なデータセットにおける実験はランダムな決定木に基づいており,それらの組み合わせによる予測の多様性が保証されている。
意外なことに、確率を平均的に上回るのが難しいことがわかりました。
しかし、証拠の蓄積は、非常に小さな葉の全てに対して一貫して良好な結果を示した。
関連論文リスト
- Treeffuser: Probabilistic Predictions via Conditional Diffusions with Gradient-Boosted Trees [39.9546129327526]
Treeffuserは、表データの確率的予測のための使いやすい方法である。
Treeffuserはよく校正された予測分布を学習し、幅広い回帰タスクを処理できる。
Walmartの営業データを用いて、不確実性の下での在庫配分への応用について、その汎用性を実証する。
論文 参考訳(メタデータ) (2024-06-11T18:59:24Z) - Uncertainty Estimates of Predictions via a General Bias-Variance
Decomposition [7.811916700683125]
本稿では,適切なスコアに対するバイアス分散分解を導入し,分散項としてブレグマン情報を導出する。
モデルアンサンブルや信頼領域を含む下流タスクにおけるこの分解の実践的妥当性を示す。
論文 参考訳(メタデータ) (2022-10-21T21:24:37Z) - Reconciling Individual Probability Forecasts [78.0074061846588]
データに同意する2つの当事者は、個々の確率をモデル化する方法に異を唱えることができない。
個々の確率は不可知であるが、計算的かつデータ効率のよいプロセスで競合できると結論付ける。
論文 参考訳(メタデータ) (2022-09-04T20:20:35Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - How to Evaluate Uncertainty Estimates in Machine Learning for
Regression? [1.4610038284393165]
両手法とも,不確実性評価の品質評価には深刻な欠陥があることが示唆された。
第一に、どちらのアプローチも、予測の不確実性を共同で生み出す別個のコンポーネントを解き放つことはできない。
第3に、予測間隔を直接テストする現在のアプローチには、さらなる欠陥がある。
論文 参考訳(メタデータ) (2021-06-07T07:47:46Z) - Probabilistic Gradient Boosting Machines for Large-Scale Probabilistic
Regression [51.770998056563094]
PGBM(Probabilistic Gradient Boosting Machines)は、確率的予測を生成する手法である。
既存の最先端手法と比較してPGBMの利点を実証的に示す。
論文 参考訳(メタデータ) (2021-06-03T08:32:13Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Knowing what you know: valid and validated confidence sets in multiclass
and multilabel prediction [0.8594140167290097]
マルチクラスおよびマルチラベル問題において、有効な信頼セットを構築するための共形予測手法を開発する。
量子レグレッションのアイデアを活用することで、常に正しいカバレッジを保証すると同時に、マルチクラスとマルチラベルの予測問題に対して条件付きカバレッジを提供する手法を構築する。
論文 参考訳(メタデータ) (2020-04-21T17:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。