論文の概要: Random Forests as Statistical Procedures: Design, Variance, and Dependence
- arxiv url: http://arxiv.org/abs/2602.13104v1
- Date: Fri, 13 Feb 2026 17:08:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.050462
- Title: Random Forests as Statistical Procedures: Design, Variance, and Dependence
- Title(参考訳): 統計的手続きとしてのランダムフォレスト--設計・分散・依存
- Authors: Nathaniel S. O'Connell,
- Abstract要約: 我々は,各木が明示的な条件回帰関数であるランダム林の有限サンプル設計法を開発した。
この観点は、有限集約変数を構造的依存項から分離する森林予測器に対して正確な分散恒等性をもたらす。
結果として得られたフレームワークは、リサンプリング、特徴レベルのランダム化、分割選択が解決、木の多様性、依存をどのように管理するかを明確にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random forests are widely used prediction procedures, yet are typically described algorithmically rather than as statistical designs acting on a fixed dataset. We develop a finite-sample, design-based formulation of random forests in which each tree is an explicit randomized conditional regression function. This perspective yields an exact variance identity for the forest predictor that separates finite-aggregation variability from a structural dependence term that persists even under infinite aggregation. We further decompose both single-tree dispersion and inter-tree covariance using the laws of total variance and covariance, isolating two fundamental design mechanisms-reuse of training observations and alignment of data-adaptive partitions. These mechanisms induce a strict covariance floor, demonstrating that predictive variability cannot be eliminated by increasing the number of trees alone. The resulting framework clarifies how resampling, feature-level randomization, and split selection govern resolution, tree variability, and dependence, and establishes random forests as explicit finite-sample statistical designs whose behavior is determined by their underlying randomized construction.
- Abstract(参考訳): ランダム・フォレストは予測手順として広く使われているが、一般に一定のデータセットに作用する統計設計としてではなく、アルゴリズム的に記述される。
本研究では,各木が明示的ランダム化条件付き回帰関数であるランダム林の有限サンプル設計型定式化を開発する。
この観点は、有限集約変数を無限の凝集の下でも持続する構造的依存項から分離する森予測子に対して正確な分散恒等性をもたらす。
さらに, 単木分散と木間共分散を, 全分散法則と共分散法則を用いて分解し, トレーニング観察の再利用とデータ適応分割のアライメントという2つの基本設計機構を分離する。
これらのメカニズムは厳密な共分散フロアを誘導し、木数だけを増やすことで予測的変動を排除できないことを示す。
結果として得られたフレームワークは、再サンプリング、特徴レベルのランダム化、分割選択が解決、木の変数、依存をいかに支配するかを明確にし、その振る舞いを基礎となるランダム化構造によって決定される明示的な有限サンプル統計設計としてランダム森林を確立する。
関連論文リスト
- Partition Trees: Conditional Density Estimation over General Outcome Spaces [46.1988967916659]
一般結果空間上での条件密度推定のための木に基づくフレームワークである分割木を提案する。
本手法は,データ適応分割における条件分布を一括一貫した密度としてモデル化し,条件付き負の対数関係を直接最小化して木を学習する。
論文 参考訳(メタデータ) (2026-02-03T22:12:30Z) - Consistency of Honest Decision Trees and Random Forests [0.0]
本研究は,レグレッション・セッティングにおける優良な決定木と無作為な森林の整合性について検討する。
正直な木と正直な森の平均を真回帰関数に弱くほぼ確実に収束させる。
論文 参考訳(メタデータ) (2026-01-21T13:40:36Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - On the Pointwise Behavior of Recursive Partitioning and Its Implications
for Heterogeneous Causal Effect Estimation [8.394633341978007]
決定木学習は、ポイントワイズ推論にますます使われている。
適応決定木は、非消滅確率のノルムにおける収束の収束率を達成できないことを示す。
ランダムな森林は状況を改善することができ、貧弱な樹木をほぼ最適な手順に変えることができる。
論文 参考訳(メタデータ) (2022-11-19T21:28:30Z) - Random Forest Weighted Local Fréchet Regression with Random Objects [18.128663071848923]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は、これらの重みを局所平均として、条件付きFr'echet平均を解くことである。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Large Scale Prediction with Decision Trees [9.917147243076645]
本稿では,分類・回帰木(CART)とC4.5手法を用いて構築した決定木が,回帰・分類タスクに一貫性があることを示す。
この分析における重要なステップは、不平等の確立であり、不特定モデルの適合性と複雑性のトレードオフを正確に評価することができる。
論文 参考訳(メタデータ) (2021-04-28T16:59:03Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。