論文の概要: Partition Trees: Conditional Density Estimation over General Outcome Spaces
- arxiv url: http://arxiv.org/abs/2602.04042v1
- Date: Tue, 03 Feb 2026 22:12:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.291542
- Title: Partition Trees: Conditional Density Estimation over General Outcome Spaces
- Title(参考訳): 分割木:一般出力空間上の条件密度推定
- Authors: Felipe Angelim, Alessandro Leite,
- Abstract要約: 一般結果空間上での条件密度推定のための木に基づくフレームワークである分割木を提案する。
本手法は,データ適応分割における条件分布を一括一貫した密度としてモデル化し,条件付き負の対数関係を直接最小化して木を学習する。
- 参考スコア(独自算出の注目度): 46.1988967916659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Partition Trees, a tree-based framework for conditional density estimation over general outcome spaces, supporting both continuous and categorical variables within a unified formulation. Our approach models conditional distributions as piecewise-constant densities on data adaptive partitions and learns trees by directly minimizing conditional negative log-likelihood. This yields a scalable, nonparametric alternative to existing probabilistic trees that does not make parametric assumptions about the target distribution. We further introduce Partition Forests, an ensemble extension obtained by averaging conditional densities. Empirically, we demonstrate improved probabilistic prediction over CART-style trees and competitive or superior performance compared to state-of-the-art probabilistic tree methods and Random Forests, along with robustness to redundant features and heteroscedastic noise.
- Abstract(参考訳): 本稿では,一般結果空間上での条件密度推定のための木木に基づくフレームワークである分割木を提案し,一貫した定式化内での連続変数と分類変数の両方をサポートする。
本手法は,データ適応分割における条件分布を一括一貫した密度としてモデル化し,条件付き負の対数関係を直接最小化して木を学習する。
これにより、既存の確率木に対するスケーラブルで非パラメトリックな代替となり、ターゲット分布に関するパラメトリックな仮定は成立しない。
さらに,条件密度を平均化して得られるアンサンブル拡張であるパーティションフォレストを紹介した。
実験的に,CART型樹木に対する確率予測の改善と,最先端の確率木法やランダムフォレストと比較して,競争力や優れた性能を示すとともに,冗長な特徴やヘテロセダスティックノイズに対する頑健性も示す。
関連論文リスト
- Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Variational phylogenetic inference with products over bipartitions [48.2982114295171]
単一連鎖クラスタリングの合体時間に基づく新しい変分族を示し,木上の分布の閉形式密度を導出する。
我々の手法はすべての木空間に対して推論を行い、マルコフ連鎖モンテカルロ部分ルーチンは不要であり、我々の変分族は微分可能である。
論文 参考訳(メタデータ) (2025-02-21T00:06:57Z) - A partial likelihood approach to tree-based density modeling and its application in Bayesian inference [3.401207704599407]
確率分布のツリーベースの事前は、通常、サンプル空間の候補分割の所定のデータ非依存のコレクションを使用して指定される。
サンプル空間全体にわたって、未知のターゲット密度を詳細に特徴づけるためには、候補分割は、潜在的にゼロでないサンプリング確率でサンプル空間のすべての領域に深く展開する能力を持つ必要がある。
伝統的な知恵は、ベイズ的推論においてコヒーレントな可能性に基づく推論を保証するために、この妥協は避けられないことを示唆している。
そこで本研究では,Coxの部分的可能性を用いて,データ依存型の分割を許容しながら,コヒーレンシを復元する簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-12-16T12:10:23Z) - Ensembles of Probabilistic Regression Trees [46.53457774230618]
木に基づくアンサンブル法は多くの応用や研究で回帰問題に成功している。
本研究では,確率分布に関する各領域の観察を割り当てることで,目的関数のスムーズな近似を提供する確率回帰木のアンサンブルバージョンについて検討する。
論文 参考訳(メタデータ) (2024-06-20T06:51:51Z) - Building Trees for Probabilistic Prediction via Scoring Rules [0.0]
非パラメトリックな予測分布を生成するために木を修正することを研究する。
木を構築するための標準的な手法は、良い予測分布にはならないかもしれない。
我々は,適切なスコアリングルールに基づいて,木の分割基準を1つに変更することを提案する。
論文 参考訳(メタデータ) (2024-02-16T20:04:13Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。