論文の概要: Guided Random Forest and its application to data approximation
- arxiv url: http://arxiv.org/abs/1909.00659v2
- Date: Thu, 07 Aug 2025 14:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.437218
- Title: Guided Random Forest and its application to data approximation
- Title(参考訳): ガイド付ランダムフォレストとデータ近似への応用
- Authors: Prashant Gupta, Aashi Jindal, Jayadeva, Debarka Sengupta,
- Abstract要約: 我々は、グローバルなパーティショニングを得るために、局所的なパーティショニングによる斜め決定木を構築するというアイデアを拡張した。
我々は,グローバルパーティショニングによって一般化誤差が低減されることを実証的に実証した。
115のベンチマークデータセットの結果は、GRAFがほとんどのデータセットで同等またはより良い結果を得ることを示している。
- 参考スコア(独自算出の注目度): 2.6149031653868993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new way of constructing an ensemble classifier, named the Guided Random Forest (GRAF) in the sequel. GRAF extends the idea of building oblique decision trees with localized partitioning to obtain a global partitioning. We show that global partitioning bridges the gap between decision trees and boosting algorithms. We empirically demonstrate that global partitioning reduces the generalization error bound. Results on 115 benchmark datasets show that GRAF yields comparable or better results on a majority of datasets. We also present a new way of approximating the datasets in the framework of random forests.
- Abstract(参考訳): 本発表では,続編に「ガイドランダムフォレスト(GRAF)」という,アンサンブル分類器を新たに構築する方法について述べる。
GRAFは、グローバルなパーティショニングを得るために、局所的なパーティショニングを伴う斜めの決定木を構築するというアイデアを拡張している。
グローバルパーティショニングが決定木とブースティングアルゴリズムのギャップを埋めることを示す。
我々は,グローバルパーティショニングによって一般化誤差が低減されることを実証的に実証した。
115のベンチマークデータセットの結果は、GRAFがほとんどのデータセットで同等またはより良い結果を得ることを示している。
また、ランダム森林の枠組みにデータセットを近似する新しい方法を提案する。
関連論文リスト
- Cluster-Based Random Forest Visualization and Interpretation [3.3362962017403364]
本稿では,無作為林の解釈可能性を高めるための可視化手法とシステムを提案する。
同様のツリーをクラスタリングすることで、モデルが一般的にどのように機能するかをユーザが解釈できます。
また、クラスタ化された決定木と個々の決定木の両方を視覚化する2つの新しい可視化手法を提案する。
論文 参考訳(メタデータ) (2025-07-30T13:22:28Z) - Diversity Conscious Refined Random Forest [0.0]
ランダムフォレスト(Random Forest、RF)は、広く使われているアンサンブル学習技術である。
RFは何百本もの木と全ての入力機能に依存しており、高いコストとモデルの冗長性をもたらす。
本研究では,情報的特徴のみに木を生長させ,無関係な木を集成・維持することで最大多様性を発揮できる改良ランダムフォレストを提案する。
論文 参考訳(メタデータ) (2025-07-01T06:28:15Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Split-and-Fit: Learning B-Reps via Structure-Aware Voronoi Partitioning [50.684254969269546]
本稿では,3次元CADモデルのバウンダリ表現(B-Reps)を取得する新しい手法を提案する。
各パーティション内に1つのプリミティブを導出するために空間分割を適用する。
我々のネットワークはニューラルなボロノイ図でNVD-Netと呼ばれ、訓練データからCADモデルのボロノイ分割を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2024-06-07T21:07:49Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Explaining random forest prediction through diverse rulesets [0.0]
Local Tree eXtractor (LTreeX)は、与えられたテストインスタンスのフォレスト予測を、いくつかの異なるルールで説明することができる。
提案手法は予測性能の点で他の説明可能な手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:54:57Z) - Minimax Rates for High-Dimensional Random Tessellation Forests [0.0]
モンドリアン林は、任意の次元でミニマックスレートが得られた最初のランダム林である。
概略分割方向を持つ多種多様なランダム林は任意の次元における最小収束率も達成できることを示す。
論文 参考訳(メタデータ) (2021-09-22T06:47:38Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。