論文の概要: Probability Distribution on Full Rooted Trees
- arxiv url: http://arxiv.org/abs/2109.12825v1
- Date: Mon, 27 Sep 2021 06:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:42:29.880706
- Title: Probability Distribution on Full Rooted Trees
- Title(参考訳): 完全根木上の確率分布
- Authors: Yuta Nakahara, Shota Saito, Akira Kamatsuka, Toshiyasu Matsushima
- Abstract要約: データ圧縮、画像処理、機械学習では、完全なルートツリーはランダム変数ではない。
これを解決する方法の1つは、全根木上の事前分布を仮定することである。
本稿では,全根樹群における確率分布を提案する。
- 参考スコア(独自算出の注目度): 2.1506382989223782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recursive and hierarchical structure of full rooted trees is used in
various areas such as data compression, image processing, and machine learning.
In most of these studies, the full rooted tree is not a random variable. It
causes a problem of model selection to avoid overfitting. One method to solve
it is to assume a prior distribution on the full rooted trees. It enables us to
avoid overfitting based on the Bayes decision theory. For example, by assigning
a low prior probability on a complex model, the MAP estimator prevents the
overfitting. Further, we can avoid it by averaging all the models weighted by
their posteriors. In this paper, we propose a probability distribution on a set
of full rooted trees. Its parametric representation is well suited to calculate
the properties of our distribution by recursive functions: the mode, the
expectation, the posterior distribution, etc. Although some previous studies
have proposed such distributions, they are for specific applications.
Therefore, we extract the mathematically essential part of them and derive new
generalized methods to calculate the expectation, the posterior distribution,
etc.
- Abstract(参考訳): 完全根付き木の再帰的かつ階層的な構造は、データ圧縮、画像処理、機械学習といった様々な領域で使用される。
これらの研究のほとんどにおいて、完全根木はランダム変数ではない。
これは過剰適合を避けるためにモデル選択の問題を引き起こす。
解く一つの方法は、全根木上の事前分布を仮定することである。
これによりベイズ決定理論に基づく過度な適合を避けることができる。
例えば、複雑なモデルに低い事前確率を割り当てることによって、MAP推定器はオーバーフィッティングを防ぐ。
さらに, 後部モデルの重み付けを平均化することにより, 回避できる。
本稿では,全根樹群における確率分布を提案する。
そのパラメトリック表現は、再帰関数(モード、期待、後方分布など)によって分布の性質を計算するのに適しています。
以前の研究ではそのような分布を提案したが、特定の用途に当てはまる。
そこで,その数学的本質的な部分を抽出し,期待値や後方分布などを計算する新しい一般化手法を導出する。
関連論文リスト
- Treeffuser: Probabilistic Predictions via Conditional Diffusions with Gradient-Boosted Trees [39.9546129327526]
Treeffuserは、表データの確率的予測のための使いやすい方法である。
Treeffuserはよく校正された予測分布を学習し、幅広い回帰タスクを処理できる。
Walmartの営業データを用いて、不確実性の下での在庫配分への応用について、その汎用性を実証する。
論文 参考訳(メタデータ) (2024-06-11T18:59:24Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Prediction Algorithms Achieving Bayesian Decision Theoretical Optimality
Based on Decision Trees as Data Observation Processes [1.2774526936067927]
本稿では,データの背後にあるデータ観測過程を表現するために木を用いる。
我々は、過度な適合に対して頑健な統計的に最適な予測を導出する。
これをマルコフ連鎖モンテカルロ法により解き、ステップサイズは木の後方分布に応じて適応的に調整される。
論文 参考訳(メタデータ) (2023-06-12T12:14:57Z) - An Approximation Method for Fitted Random Forests [0.0]
本研究では,葉にデータポイントを割り当てたランダムフォレストモデルを用いて,各木を近似する手法について検討した。
具体的には,多項ロジスティック回帰の適合が予測品質を保ちながらサイズを減少させるかどうかを考察することから始める。
論文 参考訳(メタデータ) (2022-07-05T17:28:52Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Probability Distribution on Rooted Trees [1.3955252961896318]
根付き木の階層的表現能力は、データ圧縮、画像処理、機械学習など、さまざまな領域の統計モデルを表現するために応用される。
これを解決するための統一的なアプローチはベイズ的アプローチであり、ルート木をランダム変数とみなし、選択されたモデルや新しいデータポイントの予測値に対して直接損失関数を仮定することができる。
本稿では,最大子ノード数と最大深さのみを固定したルート木に対して,一般化された確率分布を提案する。
論文 参考訳(メタデータ) (2022-01-24T05:13:58Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Probabilistic Gradient Boosting Machines for Large-Scale Probabilistic
Regression [51.770998056563094]
PGBM(Probabilistic Gradient Boosting Machines)は、確率的予測を生成する手法である。
既存の最先端手法と比較してPGBMの利点を実証的に示す。
論文 参考訳(メタデータ) (2021-06-03T08:32:13Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。