論文の概要: Shrub Ensembles for Online Classification
- arxiv url: http://arxiv.org/abs/2112.03723v1
- Date: Tue, 7 Dec 2021 14:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 14:29:44.513940
- Title: Shrub Ensembles for Online Classification
- Title(参考訳): オンライン分類のための低木アンサンブル
- Authors: Sebastian Buschj\"ager, Sibylle Hess, Katharina Morik
- Abstract要約: 決定木(DT)アンサンブルは、データの変化に適応しながら優れたパフォーマンスを提供するが、リソース効率は良くない。
本稿では,資源制約システムのための新しいメモリ効率の高いオンライン分類アンサンブルである低木アンサンブルを提案する。
我々のアルゴリズムは、小さな窓に小から中程度の決定木を訓練し、勾配降下を利用してこれらの低木のアンサンブル重みを学習する。
- 参考スコア(独自算出の注目度): 7.057937612386993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online learning algorithms have become a ubiquitous tool in the machine
learning toolbox and are frequently used in small, resource-constraint
environments. Among the most successful online learning methods are Decision
Tree (DT) ensembles. DT ensembles provide excellent performance while adapting
to changes in the data, but they are not resource efficient. Incremental tree
learners keep adding new nodes to the tree but never remove old ones increasing
the memory consumption over time. Gradient-based tree learning, on the other
hand, requires the computation of gradients over the entire tree which is
costly for even moderately sized trees. In this paper, we propose a novel
memory-efficient online classification ensemble called shrub ensembles for
resource-constraint systems. Our algorithm trains small to medium-sized
decision trees on small windows and uses stochastic proximal gradient descent
to learn the ensemble weights of these `shrubs'. We provide a theoretical
analysis of our algorithm and include an extensive discussion on the behavior
of our approach in the online setting. In a series of 2~959 experiments on 12
different datasets, we compare our method against 8 state-of-the-art methods.
Our Shrub Ensembles retain an excellent performance even when only little
memory is available. We show that SE offers a better accuracy-memory trade-off
in 7 of 12 cases, while having a statistically significant better performance
than most other methods. Our implementation is available under
https://github.com/sbuschjaeger/se-online .
- Abstract(参考訳): オンライン学習アルゴリズムは、機械学習ツールボックスにおいてユビキタスなツールとなり、小さなリソース制約環境で頻繁に使用されている。
最も成功したオンライン学習方法は意思決定木(dt)アンサンブルである。
DTアンサンブルは、データの変更に適応しながら優れたパフォーマンスを提供するが、リソース効率は良くない。
増分木学習者は、新しいノードをツリーに追加し続けるが、時間とともにメモリ消費が増える古いノードを削除することは決してない。
一方、勾配ベースの木を学習するには、木全体にわたる勾配の計算が必要である。
本稿では,資源制約システムのための新しいメモリ効率のよいオンライン分類アンサンブルであるshrubアンサンブルを提案する。
提案アルゴリズムは,小型から中規模の決定木を小さなウィンドウで学習し,確率的近位勾配勾配を用いてこれらの「低木」のアンサンブル重みを学習する。
提案アルゴリズムを理論的に分析し,オンライン環境でのアプローチの振る舞いについて広範な議論を行う。
12の異なるデータセットで2~959の実験を行い、この手法を8つの最先端の方法と比較した。
私たちのShrub Ensemblesは、少ないメモリでも優れたパフォーマンスを維持しています。
以上の結果から,SEは12例中7例で精度・メモリトレードオフが良好であり,他の方法よりも統計的に有意な性能を示した。
実装はhttps://github.com/sbuschjaeger/se-onlineで利用可能です。
関連論文リスト
- LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - GradTree: Learning Axis-Aligned Decision Trees with Gradient Descent [10.27211960475599]
決定木(DT)は多くの機械学習タスクで一般的に使われている。
本稿では,greedyアルゴリズムを用いた新しいDT学習手法を提案する。
直進演算子と直進演算子を高密度DT表現とし,すべての木パラメータを協調的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2023-05-05T13:24:35Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Dive into Decision Trees and Forests: A Theoretical Demonstration [0.0]
決定木は"divide-and-conquer"の戦略を使用して、入力機能とラベル間の依存性に関する複雑な問題を小さなものに分割します。
近年, 計算広告, 推薦システム, 情報検索などの性能が大幅に向上している。
論文 参考訳(メタデータ) (2021-01-20T16:47:59Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Learning Binary Decision Trees by Argmin Differentiation [34.9154848754842]
ダウンストリームタスクのためにデータを分割するバイナリ決定木を学びます。
離散パラメータの混合整数プログラムを緩和する。
我々は、前方と後方のパスを効率的に計算するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-10-09T15:11:28Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - The Tree Ensemble Layer: Differentiability meets Conditional Computation [8.40843862024745]
我々は、異なる決定木(ソフトツリー)のアンサンブルからなるニューラルネットワークのための新しいレイヤを導入する。
異なる木は文学において有望な結果を示すが、典型的には条件計算をサポートしないため、訓練と推論が遅い。
我々は、空間性を利用する特殊前方及び後方伝播アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-18T18:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。