論文の概要: Improving the Accuracy-Memory Trade-Off of Random Forests Via
Leaf-Refinement
- arxiv url: http://arxiv.org/abs/2110.10075v1
- Date: Tue, 19 Oct 2021 16:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 15:08:10.887541
- Title: Improving the Accuracy-Memory Trade-Off of Random Forests Via
Leaf-Refinement
- Title(参考訳): リーフリファインメントによるランダム林の精度・メモリトレードオフの改善
- Authors: Sebastian Buschj\"ager, Katharina Morik
- Abstract要約: ランダムフォレスト(RF)は多くの機械学習応用において最先端の分野である。
本研究では,大きな木々のアンサンブルに対して,刈り込みによる改良効果は低下するが,刈り込みはRFよりも全体的な精度とメモリのトレードオフが優れていることを示す。
我々は,森林の葉ノードの勾配降下による予測を改良する,単純だが驚くほど効果的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.967385165474138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random Forests (RF) are among the state-of-the-art in many machine learning
applications. With the ongoing integration of ML models into everyday life, the
deployment and continuous application of models becomes more and more an
important issue. Hence, small models which offer good predictive performance
but use small amounts of memory are required. Ensemble pruning is a standard
technique to remove unnecessary classifiers from an ensemble to reduce the
overall resource consumption and sometimes even improve the performance of the
original ensemble. In this paper, we revisit ensemble pruning in the context of
`modernly' trained Random Forests where trees are very large. We show that the
improvement effects of pruning diminishes for ensembles of large trees but that
pruning has an overall better accuracy-memory trade-off than RF. However,
pruning does not offer fine-grained control over this trade-off because it
removes entire trees from the ensemble. To further improve the accuracy-memory
trade-off we present a simple, yet surprisingly effective algorithm that
refines the predictions in the leaf nodes in the forest via stochastic gradient
descent. We evaluate our method against 7 state-of-the-art pruning methods and
show that our method outperforms the other methods on 11 of 16 datasets with a
statistically significant better accuracy-memory trade-off compared to most
methods. We conclude our experimental evaluation with a case study showing that
our method can be applied in a real-world setting.
- Abstract(参考訳): ランダムフォレスト(rf)は多くの機械学習アプリケーションで最先端の分野である。
mlモデルの日常生活への継続的な統合により、モデルのデプロイと継続的適用はますます重要な問題になりつつある。
したがって、予測性能は良好だが少量のメモリを使用する小さなモデルが必要である。
アンサンブルプルーニング(英: Ensemble pruning)は、アンサンブルから不要な分類器を取り除き、リソース消費を減らし、時には元のアンサンブルの性能を向上する標準的な手法である。
本稿では,木がとても大きい「近代的」訓練されたランダム林の文脈で,アンサンブル・プルーニングを再考する。
刈り取りによる改良効果は,大きな木々のアンサンブルに対して低下するが,刈り取りはRFよりも全体的な精度・メモリトレードオフが優れていることを示す。
しかし、プルーニングは木全体をアンサンブルから取り除くため、このトレードオフに対するきめ細かい制御は行わない。
精度とメモリのトレードオフをさらに改善するために,確率勾配勾配による森林の葉ノードの予測を洗練させる,単純かつ驚くほど効果的なアルゴリズムを提案する。
提案手法を7つの最先端プルーニング法に対して評価し,提案手法が16のデータセットのうち11の他の手法よりも統計的に優れた精度・メモリトレードオフを有することを示す。
本手法が実世界の環境で適用可能であることを示すケーススタディを用いて,実験評価を行った。
関連論文リスト
- Can a Single Tree Outperform an Entire Forest? [5.448070998907116]
一般的な考え方は、単一の決定木は、テスト精度において古典的なランダムな森林を過小評価する。
本研究では,斜め回帰木の試験精度を大幅に向上させることで,このような考え方に挑戦する。
本手法は,木習熟を非制約最適化タスクとして再編成する。
論文 参考訳(メタデータ) (2024-11-26T00:18:18Z) - Free Lunch in the Forest: Functionally-Identical Pruning of Boosted Tree Ensembles [45.962492329047215]
木アンサンブルを原モデルと「機能的に同一」な縮小版にプルークする方法を提案する。
我々は,アンサンブル上での機能的同一プルーニングの問題を形式化し,正確な最適化モデルを導入し,大規模なアンサンブルをプルーする高速かつ高効率な方法を提供する。
論文 参考訳(メタデータ) (2024-08-28T23:15:46Z) - ADMM Based Semi-Structured Pattern Pruning Framework For Transformer [4.02487511510606]
本稿では,アクティベーションマップの分布を再構成する,ADMM(Alternating Direction Method of Multipliers)に基づくパターン解析フレームワークを提案する。
GLUEデータセット上の分類タスクについて広範な実験を行った。
GLUEデータセットの総合スコア80.1を維持しながら圧縮率50%を達成した。
論文 参考訳(メタデータ) (2024-07-11T09:35:08Z) - Bypass Back-propagation: Optimization-based Structural Pruning for Large Language Models via Policy Gradient [57.9629676017527]
大規模言語モデルを用いた最適化に基づく構造解析手法を提案する。
我々は,プルーニングモデルの損失を最適化することにより,確率空間におけるプルーニングマスクを直接学習する。
A100 GPUで13Bモデルに対して約35GBのメモリで2.7時間動作させる。
論文 参考訳(メタデータ) (2024-06-15T09:31:03Z) - PUMA: margin-based data pruning [51.12154122266251]
モデル分類境界からの距離(すなわちマージン)に基づいて、いくつかのトレーニングサンプルを除去するデータプルーニングに焦点を当てる。
我々は,DeepFoolを用いてマージンを算出する新しいデータプルーニング戦略PUMAを提案する。
PUMAは,現状の最先端手法であるロバスト性の上に利用でき,既存のデータプルーニング戦略と異なり,モデル性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-05-10T08:02:20Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - MLPruning: A Multilevel Structured Pruning Framework for
Transformer-based Models [78.45898846056303]
プルーニングは、大きな自然言語処理モデルに関連するメモリフットプリントと計算コストを削減する効果的な方法である。
我々は,頭部刈り込み,行刈り,ブロックワイズ刈りという3つの異なるレベルの構造化刈り込みを利用する,新しいマルチレベル構造化刈り込みフレームワークを開発した。
論文 参考訳(メタデータ) (2021-05-30T22:00:44Z) - Residual Likelihood Forests [19.97069303172077]
本稿では,Residual Likelihood Forests(RLF)と呼ばれる新たなアンサンブル学習手法を提案する。
我々の弱い学習者は、過去の学習者の文脈でグローバルな損失を用いて逐次最適化された条件付き確率を生成する。
Random Forests や Gradient Boosted Trees など,いくつかのアンサンブルアプローチと比較すると,RDF のパフォーマンスは大幅に向上している。
論文 参考訳(メタデータ) (2020-11-04T00:59:41Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Movement Pruning: Adaptive Sparsity by Fine-Tuning [115.91907953454034]
マグニチュードプルーニング(Magnitude pruning)は、純粋教師付き学習におけるモデルサイズの削減に広く用いられている戦略である。
本稿では,単純な一階重み決定法であるムーブメント・プルーニング(Motion pruning)を提案する。
実験により、大きな事前訓練された言語モデルでプルーニングを行うと、運動プルーニングは高分離性体制において顕著な改善を示すことが示された。
論文 参考訳(メタデータ) (2020-05-15T17:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。