論文の概要: Explainable Models via Compression of Tree Ensembles
- arxiv url: http://arxiv.org/abs/2206.07904v1
- Date: Thu, 16 Jun 2022 04:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 15:50:40.949231
- Title: Explainable Models via Compression of Tree Ensembles
- Title(参考訳): 木組の圧縮による説明可能なモデル
- Authors: Siwen Yan, Sriraam Natarajan, Saket Joshi, Roni Khardon and Prasad
Tadepalli
- Abstract要約: 学習木を1つの説明可能なモデルに圧縮する問題を考察する。
CoTE -- Compression of Tree Ensembles -- は圧縮表現として単一の小さな決定リストを生成する。
いくつかのベンチマーク・リレーショナル・データセットにおけるCoTEの有効性を実験的に評価した。
- 参考スコア(独自算出の注目度): 23.790618990173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble models (bagging and gradient-boosting) of relational decision trees
have proved to be one of the most effective learning methods in the area of
probabilistic logic models (PLMs). While effective, they lose one of the most
important aspect of PLMs -- interpretability. In this paper we consider the
problem of compressing a large set of learned trees into a single explainable
model. To this effect, we propose CoTE -- Compression of Tree Ensembles -- that
produces a single small decision list as a compressed representation. CoTE
first converts the trees to decision lists and then performs the combination
and compression with the aid of the original training set. An experimental
evaluation demonstrates the effectiveness of CoTE in several benchmark
relational data sets.
- Abstract(参考訳): リレーショナル決定木のアンサンブルモデル(バッグと勾配ブースティング)は確率論理モデル(PLM)の領域において最も効果的な学習方法の1つであることが証明されている。
実効性はあるものの、plmの最も重要な側面である解釈性を失う。本論文では、学習された木の集合を単一の説明可能なモデルに圧縮する問題を考える。このため、圧縮表現として単一の小さな決定リストを生成するcote -- ツリーアンサンブルの圧縮 -- を提案する。
CoTEはまず木を決定リストに変換し、次に元のトレーニングセットの助けを借りて組み合わせと圧縮を実行する。
いくつかのベンチマーク関係データセットにおけるCoTEの有効性を実験的に評価した。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Inherently Interpretable Tree Ensemble Learning [7.868733904112288]
浅い決定木をベース学習として使用すると、アンサンブル学習アルゴリズムが本質的に解釈可能であることを示す。
木アンサンブルを固有の解釈可能性を持つ機能的ANOVA表現に変換する解釈アルゴリズムを開発した。
シミュレーションと実世界のデータセットを用いた実験により,提案手法はモデル解釈と予測性能のトレードオフを良くすることを示した。
論文 参考訳(メタデータ) (2024-10-24T18:58:41Z) - Free Lunch in the Forest: Functionally-Identical Pruning of Boosted Tree Ensembles [45.962492329047215]
木アンサンブルを原モデルと「機能的に同一」な縮小版にプルークする方法を提案する。
我々は,アンサンブル上での機能的同一プルーニングの問題を形式化し,正確な最適化モデルを導入し,大規模なアンサンブルをプルーする高速かつ高効率な方法を提供する。
論文 参考訳(メタデータ) (2024-08-28T23:15:46Z) - Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - A Robust Hypothesis Test for Tree Ensemble Pruning [2.4923006485141284]
そこで我々は,勾配増進木アンサンブルの分割品質に関する理論的に正当化された新しい仮説を考案し,提示する。
本手法は, 一般的なペナルティ条件ではなく, サンプル損失の低減につながることを示す。
また,この手法にいくつかの革新的な拡張を加えて,様々な新しい木刈りアルゴリズムの扉を開く。
論文 参考訳(メタデータ) (2023-01-24T16:31:49Z) - Subgroup Robustness Grows On Trees: An Empirical Baseline Investigation [13.458414200958797]
本稿は,最先端のツリーベース手法と並行して,公正で堅牢な学習手法を実証的に比較する。
木に基づく手法は, 頑健性および公正性向上法と比較して, 強い部分群ロバスト性を有することを示す。
論文 参考訳(メタデータ) (2022-11-23T04:49:18Z) - TreeMix: Compositional Constituency-based Data Augmentation for Natural
Language Understanding [56.794981024301094]
自然言語理解のための合成データ拡張手法であるTreeMixを提案する。
具体的には、TreeMixは、選択構文解析木を利用して、文章を構成要素のサブ構造に分解し、ミックスアップデータ拡張技術を使って、それらを再結合して新しい文を生成する。
従来のアプローチと比較して、TreeMixは生成されたサンプルにより多様性を導入し、NLPデータの合成性を学ぶようモデルに促している。
論文 参考訳(メタデータ) (2022-05-12T15:25:12Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Learning from Non-Binary Constituency Trees via Tensor Decomposition [12.069862650316262]
非バイナリ選挙区木に対処する新しいアプローチを導入する。
標準テンソル分解に基づく強力な合成関数が、そのようなリッチな構造をいかに活用できるかを示す。
異なるNLPタスクにおいて,その性能を実験的に評価する。
論文 参考訳(メタデータ) (2020-11-02T10:06:59Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。