論文の概要: MorphBoost: Self-Organizing Universal Gradient Boosting with Adaptive Tree Morphing
- arxiv url: http://arxiv.org/abs/2511.13234v1
- Date: Mon, 17 Nov 2025 10:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.138898
- Title: MorphBoost: Self-Organizing Universal Gradient Boosting with Adaptive Tree Morphing
- Title(参考訳): MorphBoost: アダプティブツリーモルファーによる自己組織型ユニバーサルグラディエントブースティング
- Authors: Boris Kriuk,
- Abstract要約: MorphBoostは、トレーニング中の分割動作を動的に変化させる自己組織化されたツリー構造を備えた、新しい勾配促進フレームワークである。
このアルゴリズムは、蓄積された勾配統計と頑健性に依存した学習圧力に基づいて進化する適応分割関数を実装している。
MorphBoostは4/10のデータセットの勝利(40%の勝利率)と6/30のトップ3のフィニッシュ(20%)で総合優勝者の地位を確保した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional gradient boosting algorithms employ static tree structures with fixed splitting criteria that remain unchanged throughout training, limiting their ability to adapt to evolving gradient distributions and problem-specific characteristics across different learning stages. This work introduces MorphBoost, a new gradient boosting framework featuring self-organizing tree structures that dynamically morph their splitting behavior during training. The algorithm implements adaptive split functions that evolve based on accumulated gradient statistics and iteration-dependent learning pressures, enabling automatic adjustment to problem complexity. Key innovations include: (1) morphing split criterion combining gradient-based scores with information-theoretic metrics weighted by training progress; (2) automatic problem fingerprinting for intelligent parameter configuration across binary/multiclass/regression tasks; (3) vectorized tree prediction achieving significant computational speedups; (4) interaction-aware feature importance detecting multiplicative relationships; and (5) fast-mode optimization balancing speed and accuracy. Comprehensive benchmarking across 10 diverse datasets against competitive models (XGBoost, LightGBM, GradientBoosting, HistGradientBoosting, ensemble methods) demonstrates that MorphBoost achieves state-of-the-art performance, outperforming XGBoost by 0.84% on average. MorphBoost secured the overall winner position with 4/10 dataset wins (40% win rate) and 6/30 top-3 finishes (20%), while maintaining the lowest variance (σ=0.0948) and highest minimum accuracy across all models, revealing superior consistency and robustness. Performance analysis across difficulty levels shows competitive results on easy datasets while achieving notable improvements on advanced problems due to higher adaptation levels.
- Abstract(参考訳): 従来の勾配促進アルゴリズムでは、トレーニングを通して変化しない固定分割基準を持つ静的ツリー構造を採用しており、進化する勾配分布と異なる学習段階における問題固有の特性に適応する能力を制限する。
この研究はMorphBoostという,トレーニング中の分割動作を動的に変化させる自己組織化ツリー構造を備えた,新たな勾配向上フレームワークを紹介している。
このアルゴリズムは、累積勾配統計と反復依存学習圧力に基づいて進化する適応分割関数を実装し、問題複雑性の自動調整を可能にする。
主なイノベーションは,(1)勾配に基づくスコアとトレーニングの進行によって重み付けされた情報理論的指標を組み合わせた分割基準の定式化,(2)バイナリ/マルチクラス/回帰タスク間でのインテリジェントパラメータ設定のための自動問題指紋化,(3)重要な計算スピードアップを達成するベクトル化木予測,(4)乗法的関係を検出する相互作用認識機能の重要性,(5)高速モード最適化と速度と精度のバランスをとることである。
競争モデル(XGBoost、LightGBM、GradientBoosting、HistGradientBoosting、アンサンブルメソッド)に対する10の多様なデータセットの総合的なベンチマークは、MorphBoostが最先端のパフォーマンスを達成し、XGBoostを平均0.84%上回ったことを示している。
MorphBoostは4/10のデータセットの勝利(40%の勝利率)と6/30のトップ3のフィニッシュ(20%)で総合優勝した。
難易度レベルのパフォーマンス分析は、簡単なデータセット上での競合結果を示しながら、より高い適応レベルによる高度な問題に対する顕著な改善を実現している。
関連論文リスト
- Beyond Softmax: A Natural Parameterization for Categorical Random Variables [61.709831225296305]
階層的なバイナリ分割のシーケンスで構成される関数である$textitcatnat$関数を紹介します。
実験により,提案した関数は学習効率を向上し,一貫した試験性能を特徴とするモデルが得られることを示した。
論文 参考訳(メタデータ) (2025-09-29T12:55:50Z) - Task adaption by biologically inspired stochastic comodulation [8.59194778459436]
我々は、利得変調による微調整畳み込みネットワークが、決定論的利得変調を改善することを示す。
この結果から,コモディレーション表現はマルチタスク学習における学習効率と性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-25T15:21:03Z) - ELRA: Exponential learning rate adaption gradient descent optimization
method [83.88591755871734]
我々は, 高速(指数率), ab initio(超自由)勾配に基づく適応法を提案する。
本手法の主な考え方は,状況認識による$alphaの適応である。
これは任意の次元 n の問題に適用でき、線型にしかスケールできない。
論文 参考訳(メタデータ) (2023-09-12T14:36:13Z) - Break a Lag: Triple Exponential Moving Average for Enhanced Optimization [2.0199251985015434]
本稿では,三重指数移動平均のパワーを利用する新しい最適化手法であるFAMEを紹介する。
FAMEはデータダイナミクスに対する応答性を高め、トレンド識別ラグを緩和し、学習効率を最適化する。
包括的評価は、画像分類、オブジェクト検出、セマンティックセグメンテーションを含む様々なコンピュータビジョンタスクを含み、FAMEを30の異なるアーキテクチャに統合する。
論文 参考訳(メタデータ) (2023-06-02T10:29:33Z) - Benchmarking state-of-the-art gradient boosting algorithms for
classification [0.0]
この研究は、分類の文脈における勾配増強の利用について考察する。
オリジナルのGBMアルゴリズムや選択された最先端の勾配向上フレームワークを含む4つの一般的な実装を比較した。
有効性、信頼性、使いやすさの適切なバランスを示す勾配促進変種を示す試みが行われた。
論文 参考訳(メタデータ) (2023-05-26T17:06:15Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Efficient Adaptive Ensembling for Image Classification [3.7241274058257092]
本稿では,複雑性を増大させることなく画像分類性能を向上させる新しい手法を提案する。
データの不整合部分集合に基づいて2つの効率的なNet-b0のエンドツーエンドモデルを訓練した。
精度で平均0.5$%の精度で最先端の技術を上回りました。
論文 参考訳(メタデータ) (2022-06-15T08:55:47Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Soft Gradient Boosting Machine [72.54062017726154]
複数の異なるベースラーナを連携させて,ソフトなグラディエントブースティングマシン(sGBM)を提案する。
実験の結果,sGBMは,オンラインとオフラインの両方で同一の学習者に対して,より高精度な時間効率を享受できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。