論文の概要: Adaptive Forests For Classification
- arxiv url: http://arxiv.org/abs/2510.22991v1
- Date: Mon, 27 Oct 2025 04:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.585618
- Title: Adaptive Forests For Classification
- Title(参考訳): 適応林の分類
- Authors: Dimitris Bertsimas, Yubing Cui,
- Abstract要約: Random Forests (RF) とExtreme Gradient Boosting (XGBoost) は、最も広く使われ、高い性能の分類と回帰モデルである。
本稿では,CARTモデルの重みを適応的に選択する新しいアプローチであるAdaptive Forests (AF)を提案する。
- 参考スコア(独自算出の注目度): 4.66948282422762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random Forests (RF) and Extreme Gradient Boosting (XGBoost) are two of the most widely used and highly performing classification and regression models. They aggregate equally weighted CART trees, generated randomly in RF or sequentially in XGBoost. In this paper, we propose Adaptive Forests (AF), a novel approach that adaptively selects the weights of the underlying CART models. AF combines (a) the Optimal Predictive-Policy Trees (OP2T) framework to prescribe tailored, input-dependent unequal weights to trees and (b) Mixed Integer Optimization (MIO) to refine weight candidates dynamically, enhancing overall performance. We demonstrate that AF consistently outperforms RF, XGBoost, and other weighted RF in binary and multi-class classification problems over 20+ real-world datasets.
- Abstract(参考訳): Random Forests (RF) とExtreme Gradient Boosting (XGBoost) は、最も広く使われ、高い性能の分類と回帰モデルである。
彼らは同様に重み付けされたCART木を集約し、RFでランダムに、またはXGBoostで逐次生成する。
本稿では,CARTモデルの重みを適応的に選択する新しいアプローチであるAdaptive Forests (AF)を提案する。
AFが組み合わさる
(a)最適な予測・ポリティクス(OP2T)フレームワークにより、木や木に適合した入力に依存しない不等重みを規定する
(b)混合整数最適化(MIO)により、重み候補を動的に洗練し、全体的な性能を向上させる。
AFは、20以上の実世界のデータセット上で、バイナリおよびマルチクラス分類問題において、RF、XGBoost、その他の重み付きRFを一貫して上回ることを示した。
関連論文リスト
- Elastic ViTs from Pretrained Models without Retraining [74.5386166956142]
ビジョンファウンデーションモデルは優れたパフォーマンスを達成するが、事前決定されたサイズの限られたセットでしか利用できない。
本稿では, プルーニングされた視覚変換器のためのシングルショットネットワーク近似であるSnapViTを紹介する。
提案手法は,進化的アルゴリズムを用いて近似した勾配情報とクロスネットワーク構造相関を効率的に結合する。
論文 参考訳(メタデータ) (2025-10-20T16:15:03Z) - Diversity Conscious Refined Random Forest [0.0]
ランダムフォレスト(Random Forest、RF)は、広く使われているアンサンブル学習技術である。
RFは何百本もの木と全ての入力機能に依存しており、高いコストとモデルの冗長性をもたらす。
本研究では,情報的特徴のみに木を生長させ,無関係な木を集成・維持することで最大多様性を発揮できる改良ランダムフォレストを提案する。
論文 参考訳(メタデータ) (2025-07-01T06:28:15Z) - Binary Classification: Is Boosting stronger than Bagging? [5.877778007271621]
本稿では,バニラ・ランダム・フォレストの拡張である拡張ランダム・フォレストを紹介し,付加機能と適応サンプルおよびモデル重み付けについて述べる。
トレーニングサンプルの重み付けを適応するための反復アルゴリズムを開発し、最も難しい例を選好し、新しいサンプルごとに個別の木の重み付け手法を見つけるためのアプローチを開発した。
本手法は15の異なる二分分類データセットにまたがる通常のランダムフォレストを著しく改善し,XGBoostを含む他の木法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-24T23:22:33Z) - Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Adaptive Split Balancing for Optimal Random Forest [8.916614661563893]
そこで本研究では,新しい適応型分割バランス法を用いて木を構築するランダムフォレストアルゴリズムを提案する。
本手法は,データから木構造を適応的に学習しながら,シンプルでスムーズなシナリオで最適性を実現する。
論文 参考訳(メタデータ) (2024-02-17T09:10:40Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Optimal Weighted Random Forests [8.962539518822684]
ランダムフォレスト(RF)アルゴリズムは、その優れた柔軟性と有望な精度の予測方法として、非常に一般的なものとなっている。
1段重み付きRF(1step-WRF$_mathrmopt$)と2段重み付きRF(2steps-WRF$_mathrmopt$)という2つの最適アルゴリズムを提案する。
実世界のデータセットで行った数値研究は、これらのアルゴリズムが既存の文献で提案されている等重量の森林と他の2つの重み付きRFよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-17T08:36:43Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。