論文の概要: A partial likelihood approach to tree-based density modeling and its application in Bayesian inference
- arxiv url: http://arxiv.org/abs/2412.11692v1
- Date: Mon, 16 Dec 2024 12:10:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:55:11.740003
- Title: A partial likelihood approach to tree-based density modeling and its application in Bayesian inference
- Title(参考訳): 木に基づく密度モデリングへの部分的確率的アプローチとそのベイズ推定への応用
- Authors: Li Ma, Benedetta Bruni,
- Abstract要約: 本稿では,コヒーレンシを復元する上で,候補パーティションをデータ依存にしつつ,簡単な戦略を提案する。
我々の部分的確率的アプローチは、既存の可能性に基づく手法、特に木に基づくモデルに対するベイズ推定に広く適用できる。
- 参考スコア(独自算出の注目度): 3.401207704599407
- License:
- Abstract: Tree-based models for probability distributions are usually specified using a predetermined, data-independent collection of candidate recursive partitions of the sample space. To characterize an unknown target density in detail over the entire sample space, candidate partitions must have the capacity to expand deeply into all areas of the sample space with potential non-zero sampling probability. Such an expansive system of partitions often incurs prohibitive computational costs and makes inference prone to overfitting, especially in regions with little probability mass. Existing models typically make a compromise and rely on relatively shallow trees. This hampers one of the most desirable features of trees, their ability to characterize local features, and results in reduced statistical efficiency. Traditional wisdom suggests that this compromise is inevitable to ensure coherent likelihood-based reasoning, as a data-dependent partition system that allows deeper expansion only in regions with more observations would induce double dipping of the data and thus lead to inconsistent inference. We propose a simple strategy to restore coherency while allowing the candidate partitions to be data-dependent, using Cox's partial likelihood. This strategy parametrizes the tree-based sampling model according to the allocation of probability mass based on the observed data, and yet under appropriate specification, the resulting inference remains valid. Our partial likelihood approach is broadly applicable to existing likelihood-based methods and in particular to Bayesian inference on tree-based models. We give examples in density estimation in which the partial likelihood is endowed with existing priors on tree-based models and compare with the standard, full-likelihood approach. The results show substantial gains in estimation accuracy and computational efficiency from using the partial likelihood.
- Abstract(参考訳): 確率分布のツリーベースモデルは、通常、標本空間の候補再帰的分割の所定のデータ非依存の収集を用いて特定される。
サンプル空間全体にわたって、未知のターゲット密度を詳細に特徴づけるためには、候補分割は、潜在的にゼロでないサンプリング確率でサンプル空間のすべての領域に深く展開する能力を持つ必要がある。
このような分割の広範なシステムは、しばしば禁止的な計算コストを発生させ、特に確率質量の低い地域では、過度に適合する傾向にある。
既存のモデルは一般的に妥協し、比較的浅い木に依存している。
このことは、樹木の最も望ましい特徴の1つ、局所的な特徴を特徴づける能力、統計的効率の低下をもたらす。
従来の知恵は、この妥協はコヒーレントな可能性に基づく推論を保証するために避けられないものであることを示唆している。
そこで本研究では,Coxの部分的可能性を用いて,データ依存型の分割を許容しながら,コヒーレンシを復元する簡単な手法を提案する。
この戦略は、観測されたデータに基づいて確率質量の割り当てに応じて木に基づくサンプリングモデルをパラメータ化するが、適切な仕様の下では、結果の推測は有効である。
我々の部分的確率的アプローチは、既存の可能性に基づく手法、特に木に基づくモデルに対するベイズ推定に広く適用できる。
本稿では,木質モデルにおける既往の先行モデルに部分的確率を付与する密度推定の例を示し,標準のフル・ライクなアプローチと比較する。
その結果,部分的確率を用いて推定精度と計算効率が大幅に向上した。
関連論文リスト
- A Likelihood Based Approach to Distribution Regression Using Conditional Deep Generative Models [6.647819824559201]
本研究では,条件付き深部生成モデルの推定のための可能性に基づくアプローチの大規模サンプル特性について検討する。
その結果,条件分布を推定するための最大極大推定器の収束率を導いた。
論文 参考訳(メタデータ) (2024-10-02T20:46:21Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - When Rigidity Hurts: Soft Consistency Regularization for Probabilistic
Hierarchical Time Series Forecasting [69.30930115236228]
確率的階層的時系列予測は時系列予測の重要な変種である。
ほとんどの手法は点予測に焦点を絞っており、確率的確率分布を十分に調整していない。
ProFHiTは,階層全体の予測分布を共同でモデル化する完全確率的階層予測モデルである。
論文 参考訳(メタデータ) (2023-10-17T20:30:16Z) - Prediction Algorithms Achieving Bayesian Decision Theoretical Optimality
Based on Decision Trees as Data Observation Processes [1.2774526936067927]
本稿では,データの背後にあるデータ観測過程を表現するために木を用いる。
我々は、過度な適合に対して頑健な統計的に最適な予測を導出する。
これをマルコフ連鎖モンテカルロ法により解き、ステップサイズは木の後方分布に応じて適応的に調整される。
論文 参考訳(メタデータ) (2023-06-12T12:14:57Z) - When Rigidity Hurts: Soft Consistency Regularization for Probabilistic
Hierarchical Time Series Forecasting [69.30930115236228]
確率的階層的時系列予測は時系列予測の重要な変種である。
ほとんどの手法は点予測に焦点を絞っており、確率的確率分布を十分に調整していない。
ProFHiTは,階層全体の予測分布を共同でモデル化する完全確率的階層予測モデルである。
論文 参考訳(メタデータ) (2022-06-16T06:13:53Z) - On Variance Estimation of Random Forests [0.0]
本稿では,不完全U-統計量に基づく不偏分散推定器を開発する。
我々は,計算コストを増大させることなく,より低いバイアスとより正確な信頼区間のカバレッジを評価できることを示した。
論文 参考訳(メタデータ) (2022-02-18T03:35:47Z) - Probability Distribution on Rooted Trees [1.3955252961896318]
根付き木の階層的表現能力は、データ圧縮、画像処理、機械学習など、さまざまな領域の統計モデルを表現するために応用される。
これを解決するための統一的なアプローチはベイズ的アプローチであり、ルート木をランダム変数とみなし、選択されたモデルや新しいデータポイントの予測値に対して直接損失関数を仮定することができる。
本稿では,最大子ノード数と最大深さのみを固定したルート木に対して,一般化された確率分布を提案する。
論文 参考訳(メタデータ) (2022-01-24T05:13:58Z) - MD-split+: Practical Local Conformal Inference in High Dimensions [0.5439020425819]
MD-split+は、局所化されたモデル性能に基づいてXパーティションを生成する、実用的な局所共形アプローチである。
我々は,我々の局所的分割が条件付き共形推論手法から期待される行動と哲学的にどのように一致しているかを論じる。
論文 参考訳(メタデータ) (2021-07-07T15:19:16Z) - Probabilistic Gradient Boosting Machines for Large-Scale Probabilistic
Regression [51.770998056563094]
PGBM(Probabilistic Gradient Boosting Machines)は、確率的予測を生成する手法である。
既存の最先端手法と比較してPGBMの利点を実証的に示す。
論文 参考訳(メタデータ) (2021-06-03T08:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。