論文の概要: Cluster-Based Random Forest Visualization and Interpretation
- arxiv url: http://arxiv.org/abs/2507.22665v1
- Date: Wed, 30 Jul 2025 13:22:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.222153
- Title: Cluster-Based Random Forest Visualization and Interpretation
- Title(参考訳): クラスタに基づくランダム森林の可視化と解釈
- Authors: Max Sondag, Christofer Meinecke, Dennis Collaris, Tatiana von Landesberger, Stef van den Elzen,
- Abstract要約: 本稿では,無作為林の解釈可能性を高めるための可視化手法とシステムを提案する。
同様のツリーをクラスタリングすることで、モデルが一般的にどのように機能するかをユーザが解釈できます。
また、クラスタ化された決定木と個々の決定木の両方を視覚化する2つの新しい可視化手法を提案する。
- 参考スコア(独自算出の注目度): 3.3362962017403364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random forests are a machine learning method used to automatically classify datasets and consist of a multitude of decision trees. While these random forests often have higher performance and generalize better than a single decision tree, they are also harder to interpret. This paper presents a visualization method and system to increase interpretability of random forests. We cluster similar trees which enables users to interpret how the model performs in general without needing to analyze each individual decision tree in detail, or interpret an oversimplified summary of the full forest. To meaningfully cluster the decision trees, we introduce a new distance metric that takes into account both the decision rules as well as the predictions of a pair of decision trees. We also propose two new visualization methods that visualize both clustered and individual decision trees: (1) The Feature Plot, which visualizes the topological position of features in the decision trees, and (2) the Rule Plot, which visualizes the decision rules of the decision trees. We demonstrate the efficacy of our approach through a case study on the "Glass" dataset, which is a relatively complex standard machine learning dataset, as well as a small user study.
- Abstract(参考訳): ランダムフォレスト(Random Forests)は、データセットを自動分類する機械学習手法であり、多数の決定木から構成される。
これらの無作為林は、しばしば高い性能を持ち、単一の決定木よりも一般化するが、解釈も困難である。
本稿では,無作為林の解釈可能性を高めるための可視化手法とシステムを提案する。
ユーザが個々の決定木を詳細に分析したり、過剰に単純化された森林の要約を解釈したりすることなく、モデルが一般的にどのように機能するかを解釈できる類似のツリーをクラスタリングする。
決定ツリーを有意にクラスタリングするために,決定ルールと2つの決定ツリーの予測の両方を考慮に入れた,新たな距離メトリックを導入する。
また,(1)決定木における特徴のトポロジ的位置を可視化する特徴プロット,(2)決定木の決定ルールを可視化する規則プロットという2つの新しい視覚化手法を提案する。
我々は、比較的複雑な機械学習データセットである"Glass"データセットのケーススタディと、小さなユーザスタディを通じて、このアプローチの有効性を実証する。
関連論文リスト
- Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Learning accurate and interpretable tree-based models [27.203303726977616]
我々は、同じドメインからデータに繰り返しアクセスする木に基づく学習アルゴリズムを設計するためのアプローチを開発する。
本稿では,よく使われるエントロピーとジニ不純物に基づく基準を補間するトップダウンアルゴリズムにおいて,ノード分割基準の新しいパラメータ化クラスを提案する。
我々は、ランダムな森林や傾斜した木など、一般的な木に基づくアンサンブルのチューニングに結果を拡張した。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - ViTree: Single-path Neural Tree for Step-wise Interpretable Fine-grained
Visual Categorization [56.37520969273242]
細かな視覚分類のための新しいアプローチであるViTreeを紹介する。
ツリーパスをトラバースすることで、ViTreeは変換処理された機能からパッチを効果的に選択し、情報のあるローカルリージョンをハイライトする。
このパッチとパスの選択性は、ViTreeのモデルの解釈可能性を高め、モデルの内部動作に関するより良い洞察を可能にする。
論文 参考訳(メタデータ) (2024-01-30T14:32:25Z) - Theoretical and Empirical Advances in Forest Pruning [0.0]
回帰林の精度と回帰樹の解釈可能性という両世界の最善を尽くすアプローチである森林伐採を再考する。
我々は、弱い仮定の下で、未伐採林に対するラッソ伐採林の利点を証明した。
我々は19の異なるデータセット上の未伐採林に対する伐採林の精度を検証した。
論文 参考訳(メタデータ) (2024-01-10T20:02:47Z) - Contextual Decision Trees [62.997667081978825]
学習アンサンブルの1つの浅い木を特徴量ベースで選択するための,マルチアームのコンテキスト付きバンドレコメンデーションフレームワークを提案する。
トレーニングされたシステムはランダムフォレスト上で動作し、最終的な出力を提供するためのベース予測器を動的に識別する。
論文 参考訳(メタデータ) (2022-07-13T17:05:08Z) - Explaining random forest prediction through diverse rulesets [0.0]
Local Tree eXtractor (LTreeX)は、与えられたテストインスタンスのフォレスト予測を、いくつかの異なるルールで説明することができる。
提案手法は予測性能の点で他の説明可能な手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:54:57Z) - Succinct Explanations With Cascading Decision Trees [5.877164140116815]
そこで我々はCascading Decision Treesと呼ぶ新しい決定木モデルを提案する。
私たちの重要な洞察は、意思決定パスと説明パスの概念を分離することです。
カスケード決定木を新しいサンプルに適用すると、非常に短く簡潔な説明が得られる。
論文 参考訳(メタデータ) (2020-10-13T18:48:39Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。