論文の概要: TREX: Tree-Ensemble Representer-Point Explanations
- arxiv url: http://arxiv.org/abs/2009.05530v3
- Date: Thu, 16 Dec 2021 22:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 20:56:47.693299
- Title: TREX: Tree-Ensemble Representer-Point Explanations
- Title(参考訳): TREX: Tree-Ensemble Representer-Point 説明
- Authors: Jonathan Brophy and Daniel Lowd
- Abstract要約: TREXは、ツリーアンサンブルのインスタンス属性の説明を提供する説明システムである。
ツリーアンサンブルは微分不可能であるため、特定のツリーアンサンブルの構造をキャプチャするカーネルを定義する。
シュロゲートモデルのカーネル展開の重みは、各トレーニング例のグローバルまたはローカルな重要性を定義するために用いられる。
- 参考スコア(独自算出の注目度): 13.109852233032395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we identify the training examples that contribute most to the
prediction of a tree ensemble? In this paper, we introduce TREX, an explanation
system that provides instance-attribution explanations for tree ensembles, such
as random forests and gradient boosted trees. TREX builds on the representer
point framework previously developed for explaining deep neural networks. Since
tree ensembles are non-differentiable, we define a kernel that captures the
structure of the specific tree ensemble. By using this kernel in kernel
logistic regression or a support vector machine, TREX builds a surrogate model
that approximates the original tree ensemble. The weights in the kernel
expansion of the surrogate model are used to define the global or local
importance of each training example.
Our experiments show that TREX's surrogate model accurately approximates the
tree ensemble; its global importance weights are more effective in dataset
debugging than the previous state-of-the-art; its explanations identify the
most influential samples better than alternative methods under the remove and
retrain evaluation framework; it runs orders of magnitude faster than
alternative methods; and its local explanations can identify and explain errors
due to domain mismatch.
- Abstract(参考訳): ツリーアンサンブルの予測に最も貢献するトレーニング例をどうやって特定できるのか?
本稿では,無作為林や勾配増木など,樹木アンサンブルの例帰的説明を提供するTREXについて紹介する。
TREXは、ディープニューラルネットワークを説明するために以前に開発された表現点フレームワーク上に構築されている。
ツリーアンサンブルは微分不可能であるため、特定のツリーアンサンブルの構造をキャプチャするカーネルを定義する。
このカーネルをカーネルロジスティック回帰またはサポートベクターマシンで使用することにより、TREXは元のツリーアンサンブルを近似したサロゲートモデルを構築する。
シュロゲートモデルのカーネル展開の重みは、各トレーニング例のグローバルまたはローカルな重要性を定義するために用いられる。
実験の結果,TREXのサロゲートモデルはツリーアンサンブルを精度よく近似し,そのグローバルな重み付けは,従来の最先端技術よりもデータセットデバッギングに有効であり,その説明は,除去・再トレーニング評価フレームワークの下では,他の手法よりも最も影響力のあるサンプルを識別し,他の手法よりも桁違いに高速に動作し,局所的な説明はドメインミスマッチによるエラーを識別し,説明することができることがわかった。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - ViTree: Single-path Neural Tree for Step-wise Interpretable Fine-grained
Visual Categorization [56.37520969273242]
細かな視覚分類のための新しいアプローチであるViTreeを紹介する。
ツリーパスをトラバースすることで、ViTreeは変換処理された機能からパッチを効果的に選択し、情報のあるローカルリージョンをハイライトする。
このパッチとパスの選択性は、ViTreeのモデルの解釈可能性を高め、モデルの内部動作に関するより良い洞察を可能にする。
論文 参考訳(メタデータ) (2024-01-30T14:32:25Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - RLET: A Reinforcement Learning Based Approach for Explainable QA with
Entailment Trees [47.745218107037786]
本稿では,強化学習に基づくEntailment Tree生成フレームワークであるRLETを提案する。
RLETは文の選択と推論生成モジュールによる単一ステップ推論を反復的に行う。
EntailmentBankデータセットの3つの設定の実験では、RLフレームワークを使用することの強みが示されている。
論文 参考訳(メタデータ) (2022-10-31T06:45:05Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Hierarchical Shrinkage: improving the accuracy and interpretability of
tree-based methods [10.289846887751079]
木構造を改変しないポストホックアルゴリズムである階層収縮(Hierarchical Shrinkage, HS)を導入する。
HSは、他の正規化技術と併用しても、決定木の予測性能を大幅に向上させる。
すべてのコードとモデルはGithubにある本格的なパッケージでリリースされている。
論文 参考訳(メタデータ) (2022-02-02T02:43:23Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - Visualizing hierarchies in scRNA-seq data using a density tree-biased
autoencoder [50.591267188664666]
本研究では,高次元scRNA-seqデータから意味のある木構造を同定する手法を提案する。
次に、低次元空間におけるデータのツリー構造を強調する木バイアスオートエンコーダDTAEを紹介する。
論文 参考訳(メタデータ) (2021-02-11T08:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。