論文の概要: Explainable Models via Compression of Tree Ensembles
- arxiv url: http://arxiv.org/abs/2206.07904v1
- Date: Thu, 16 Jun 2022 04:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 15:50:40.949231
- Title: Explainable Models via Compression of Tree Ensembles
- Title(参考訳): 木組の圧縮による説明可能なモデル
- Authors: Siwen Yan, Sriraam Natarajan, Saket Joshi, Roni Khardon and Prasad
Tadepalli
- Abstract要約: 学習木を1つの説明可能なモデルに圧縮する問題を考察する。
CoTE -- Compression of Tree Ensembles -- は圧縮表現として単一の小さな決定リストを生成する。
いくつかのベンチマーク・リレーショナル・データセットにおけるCoTEの有効性を実験的に評価した。
- 参考スコア(独自算出の注目度): 23.790618990173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble models (bagging and gradient-boosting) of relational decision trees
have proved to be one of the most effective learning methods in the area of
probabilistic logic models (PLMs). While effective, they lose one of the most
important aspect of PLMs -- interpretability. In this paper we consider the
problem of compressing a large set of learned trees into a single explainable
model. To this effect, we propose CoTE -- Compression of Tree Ensembles -- that
produces a single small decision list as a compressed representation. CoTE
first converts the trees to decision lists and then performs the combination
and compression with the aid of the original training set. An experimental
evaluation demonstrates the effectiveness of CoTE in several benchmark
relational data sets.
- Abstract(参考訳): リレーショナル決定木のアンサンブルモデル(バッグと勾配ブースティング)は確率論理モデル(PLM)の領域において最も効果的な学習方法の1つであることが証明されている。
実効性はあるものの、plmの最も重要な側面である解釈性を失う。本論文では、学習された木の集合を単一の説明可能なモデルに圧縮する問題を考える。このため、圧縮表現として単一の小さな決定リストを生成するcote -- ツリーアンサンブルの圧縮 -- を提案する。
CoTEはまず木を決定リストに変換し、次に元のトレーニングセットの助けを借りて組み合わせと圧縮を実行する。
いくつかのベンチマーク関係データセットにおけるCoTEの有効性を実験的に評価した。
関連論文リスト
- Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - A Robust Hypothesis Test for Tree Ensemble Pruning [2.4923006485141284]
そこで我々は,勾配増進木アンサンブルの分割品質に関する理論的に正当化された新しい仮説を考案し,提示する。
本手法は, 一般的なペナルティ条件ではなく, サンプル損失の低減につながることを示す。
また,この手法にいくつかの革新的な拡張を加えて,様々な新しい木刈りアルゴリズムの扉を開く。
論文 参考訳(メタデータ) (2023-01-24T16:31:49Z) - Subgroup Robustness Grows On Trees: An Empirical Baseline Investigation [13.458414200958797]
本稿は,最先端のツリーベース手法と並行して,公正で堅牢な学習手法を実証的に比較する。
木に基づく手法は, 頑健性および公正性向上法と比較して, 強い部分群ロバスト性を有することを示す。
論文 参考訳(メタデータ) (2022-11-23T04:49:18Z) - TreeMix: Compositional Constituency-based Data Augmentation for Natural
Language Understanding [56.794981024301094]
自然言語理解のための合成データ拡張手法であるTreeMixを提案する。
具体的には、TreeMixは、選択構文解析木を利用して、文章を構成要素のサブ構造に分解し、ミックスアップデータ拡張技術を使って、それらを再結合して新しい文を生成する。
従来のアプローチと比較して、TreeMixは生成されたサンプルにより多様性を導入し、NLPデータの合成性を学ぶようモデルに促している。
論文 参考訳(メタデータ) (2022-05-12T15:25:12Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Learning from Non-Binary Constituency Trees via Tensor Decomposition [12.069862650316262]
非バイナリ選挙区木に対処する新しいアプローチを導入する。
標準テンソル分解に基づく強力な合成関数が、そのようなリッチな構造をいかに活用できるかを示す。
異なるNLPタスクにおいて,その性能を実験的に評価する。
論文 参考訳(メタデータ) (2020-11-02T10:06:59Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。