論文の概要: Hierarchical Shrinkage: improving the accuracy and interpretability of
tree-based methods
- arxiv url: http://arxiv.org/abs/2202.00858v1
- Date: Wed, 2 Feb 2022 02:43:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 22:54:52.656592
- Title: Hierarchical Shrinkage: improving the accuracy and interpretability of
tree-based methods
- Title(参考訳): 階層的縮小:木に基づく手法の精度と解釈性の向上
- Authors: Abhineet Agarwal, Yan Shuo Tan, Omer Ronen, Chandan Singh, Bin Yu
- Abstract要約: 木構造を改変しないポストホックアルゴリズムである階層収縮(Hierarchical Shrinkage, HS)を導入する。
HSは、他の正規化技術と併用しても、決定木の予測性能を大幅に向上させる。
すべてのコードとモデルはGithubにある本格的なパッケージでリリースされている。
- 参考スコア(独自算出の注目度): 10.289846887751079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tree-based models such as decision trees and random forests (RF) are a
cornerstone of modern machine-learning practice. To mitigate overfitting, trees
are typically regularized by a variety of techniques that modify their
structure (e.g. pruning). We introduce Hierarchical Shrinkage (HS), a post-hoc
algorithm that does not modify the tree structure, and instead regularizes the
tree by shrinking the prediction over each node towards the sample means of its
ancestors. The amount of shrinkage is controlled by a single regularization
parameter and the number of data points in each ancestor. Since HS is a
post-hoc method, it is extremely fast, compatible with any tree growing
algorithm, and can be used synergistically with other regularization
techniques. Extensive experiments over a wide variety of real-world datasets
show that HS substantially increases the predictive performance of decision
trees, even when used in conjunction with other regularization techniques.
Moreover, we find that applying HS to each tree in an RF often improves
accuracy, as well as its interpretability by simplifying and stabilizing its
decision boundaries and SHAP values. We further explain the success of HS in
improving prediction performance by showing its equivalence to ridge regression
on a (supervised) basis constructed of decision stumps associated with the
internal nodes of a tree. All code and models are released in a full-fledged
package available on Github (github.com/csinva/imodels)
- Abstract(参考訳): 決定木やランダム森林(RF)のような木に基づくモデルは、現代の機械学習の実践の基盤となっている。
過度な適合を緩和するために、木は通常、その構造を変更する様々な技術によって規則化される。
我々は,木構造を変更しないポストホックアルゴリズムである階層的縮小 (hs) を導入する。
収縮の量は、単一の正規化パラメータと各祖先のデータポイント数によって制御される。
HSはポストホック法であるため、非常に高速で、木の成長アルゴリズムと互換性があり、他の正規化手法と相乗的に使用できる。
様々な実世界のデータセットにわたる広範囲な実験により、hsは他の正規化手法と併用しても決定木の予測性能が大幅に向上することが示された。
さらに,RFにおける各木へのHS適用は,その決定境界とSHAP値の簡易化と安定化により,その解釈可能性も向上することがわかった。
さらに,木の内部ノードに関連付けられた決定切り株から構築した(教師あり)ベースにおいて,リッジ回帰と等価性を示し,予測性能の向上におけるhsの成功を説明する。
すべてのコードとモデルは、githubで入手できる完全なパッケージ(github.com/csinva/imodels)でリリースされている。
関連論文リスト
- Can a Single Tree Outperform an Entire Forest? [5.448070998907116]
一般的な考え方は、単一の決定木は、テスト精度において古典的なランダムな森林を過小評価する。
本研究では,斜め回帰木の試験精度を大幅に向上させることで,このような考え方に挑戦する。
本手法は,木習熟を非制約最適化タスクとして再編成する。
論文 参考訳(メタデータ) (2024-11-26T00:18:18Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - SETAR-Tree: A Novel and Accurate Tree Algorithm for Global Time Series
Forecasting [7.206754802573034]
本稿では,TARモデルと回帰木との密接な関係について検討する。
本研究では,葉のグローバルプール回帰(PR)モデルをトレーニングする,予測固有木アルゴリズムを提案する。
本評価では, 提案した樹木モデルと森林モデルを用いて, 最先端の樹木モデルよりも精度の高い木モデルを提案する。
論文 参考訳(メタデータ) (2022-11-16T04:30:42Z) - SoftTreeMax: Policy Gradient with Tree Search [72.9513807133171]
我々は、ツリー検索をポリシー勾配に統合する最初のアプローチであるSoftTreeMaxを紹介します。
Atariでは、SoftTreeMaxが分散PPOと比較して、実行時のパフォーマンスを最大5倍向上させる。
論文 参考訳(メタデータ) (2022-09-28T09:55:47Z) - Social Interpretable Tree for Pedestrian Trajectory Prediction [75.81745697967608]
本稿では,このマルチモーダル予測課題に対処するため,SIT(Social Interpretable Tree)と呼ばれる木に基づく手法を提案する。
木の根から葉までの経路は、個々の将来の軌跡を表す。
ETH-UCYとStanford Droneのデータセットによる実験結果からは,手作り木にもかかわらず,我々の手法が最先端の手法の性能に適合または超えることを示した。
論文 参考訳(メタデータ) (2022-05-26T12:18:44Z) - Optimal randomized classification trees [0.0]
分類と回帰木(英: Classification and Regression Trees、CART)は、現代の統計学と機械学習における既成の技術である。
CARTはgreedyプロシージャによって構築され、分割予測変数と関連するしきい値を逐次決定する。
この強欲なアプローチは、木を非常に高速に木に分類するが、その性質上、それらの分類精度は他の最先端の手順と競合しないかもしれない。
論文 参考訳(メタデータ) (2021-10-19T11:41:12Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。