論文の概要: When does Subagging Work?
- arxiv url: http://arxiv.org/abs/2404.01832v1
- Date: Tue, 2 Apr 2024 10:44:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 16:49:07.459184
- Title: When does Subagging Work?
- Title(参考訳): Subaggingはいつ機能するのか?
- Authors: Christos Revelas, Otilia Boldea, Bas J. M. Werker,
- Abstract要約: 回帰木に対するサブアグリゲーションまたはサブスタンプアグリゲーションの有効性について検討した。
i) バイアスは細胞の直径に依存するので、分裂が少ない木はバイアスを受ける傾向にあると定式化します。
サブゲージの性能を,異なる数の分割木と比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the effectiveness of subagging, or subsample aggregating, on regression trees, a popular non-parametric method in machine learning. First, we give sufficient conditions for pointwise consistency of trees. We formalize that (i) the bias depends on the diameter of cells, hence trees with few splits tend to be biased, and (ii) the variance depends on the number of observations in cells, hence trees with many splits tend to have large variance. While these statements for bias and variance are known to hold globally in the covariate space, we show that, under some constraints, they are also true locally. Second, we compare the performance of subagging to that of trees across different numbers of splits. We find that (1) for any given number of splits, subagging improves upon a single tree, and (2) this improvement is larger for many splits than it is for few splits. However, (3) a single tree grown at optimal size can outperform subagging if the size of its individual trees is not optimally chosen. This last result goes against common practice of growing large randomized trees to eliminate bias and then averaging to reduce variance.
- Abstract(参考訳): 機械学習における非パラメトリック手法である回帰木に対するサブアグリゲーションやサブサンプルアグリゲーションの有効性について検討した。
まず、木を点的に整合させるのに十分な条件を与える。
私たちはそれを形式化する
i) バイアスは細胞の直径に依存するため、分裂が少ない木はバイアスを受ける傾向があり、
(ii) 細胞内の観察数に依存するため、多くの分割を持つ木は大きなばらつきを持つ傾向にある。
これらの偏りと分散のステートメントは、共変量空間においてグローバルに保持されることが知られているが、いくつかの制約の下では、それらは局所的に真であることを示す。
第2に,異なる分割数にまたがる木間伐採の性能を比較した。
その結果,(1) 特定の分割数に対して,(1) サブタグは1本の木で改善され,(2) 分割数よりも多くの分割で改善が大きくなることがわかった。
しかし、(3) 最適な大きさで成長した1本の木は、その個々の木のサイズが最適に選択されない場合、サブタグよりも優れる。
この最後の結果は、バイアスを取り除くために大きなランダム化木を成長させ、分散を減らすために平均化するという一般的な慣習に反する。
関連論文リスト
- Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - SoftTreeMax: Exponential Variance Reduction in Policy Gradient via Tree
Search [68.66904039405871]
我々は,計画を考慮したソフトマックスの一般化であるSoftTreeMaxを紹介する。
この分散を緩和する上で,木の拡大政策が果たす役割を初めて示す。
我々の分化可能なツリーベースのポリシーは、従来の単一サンプルベースの勾配ではなく、各環境における木の葉のすべての勾配を利用する。
論文 参考訳(メタデータ) (2023-01-30T19:03:14Z) - Distributional Adaptive Soft Regression Trees [0.0]
本稿では,多変量ソフトスプリットルールを用いた分布回帰木の新しいタイプを提案する。
ソフトスプリットの大きな利点の1つは、滑らかな高次元函数を1つの木で見積もることができることである。
シミュレーションにより,アルゴリズムは優れた特性を有し,様々なベンチマーク手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T08:59:02Z) - Unbiased and Efficient Sampling of Dependency Trees [0.0]
ほとんどのツリーバンクは、すべての有効な依存ツリーがROOTノードから出てくる単一のエッジを持つ必要がある。
Zmigrodらは最近、単一ルート依存ツリーの分布から置き換えることなくサンプリングするアルゴリズムを提案している。
我々は、Wilson-RCを置換したサンプリングアルゴリズムが実際にバイアスを受けていることを示す。
論文 参考訳(メタデータ) (2022-05-25T09:57:28Z) - Ensembles of Double Random Forest [1.7205106391379026]
二重ランダム森林のアンサンブルを生成するための2つの手法を提案する。
第1のアプローチでは、二重ランダム森林の回転に基づくアンサンブルを提案する。
第2のアプローチでは、二重ランダム森林の斜めアンサンブルを提案する。
論文 参考訳(メタデータ) (2021-11-03T04:19:41Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - Controlling the False Split Rate in Tree-Based Aggregation [11.226095593522691]
木に基づくアグリゲーションのための仮説テストアルゴリズムを提案する。
木に基づく集約の2つの主要な例に焦点をあてる。1つは集約手段と、もう1つは回帰係数の集約を含む。
論文 参考訳(メタデータ) (2021-08-11T17:59:22Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - A better method to enforce monotonic constraints in regression and
classification trees [0.0]
回帰木と分類木にモノトン制約を強制する2つの新しい方法を提案する。
1つは現在のLightGBMよりも良い結果をもたらし、同様の計算時間を持つ。
もう1つはより優れた結果をもたらすが、現在のLightGBMよりもずっと遅い。
論文 参考訳(メタデータ) (2020-11-02T14:04:21Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。