論文の概要: A Scalable Matrix Visualization for Understanding Tree Ensemble Classifiers
- arxiv url: http://arxiv.org/abs/2409.03164v1
- Date: Thu, 5 Sep 2024 01:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 22:33:03.237354
- Title: A Scalable Matrix Visualization for Understanding Tree Ensemble Classifiers
- Title(参考訳): 木組分類器理解のためのスケーラブルマトリックス可視化
- Authors: Zhen Li, Weikai Yang, Jun Yuan, Jing Wu, Changjian Chen, Yao Ming, Fan Yang, Hui Zhang, Shixia Liu,
- Abstract要約: 本稿では,数万のルールを含む木アンサンブル分類法を説明するために,拡張性のある視覚解析手法を提案する。
我々は,これらのルールを階層レベルで優先順位付けするための,異常バイアスモデル削減手法を開発した。
本手法は,共通ルールと異常ルールの両方を深く理解し,包括性を犠牲にすることなく解釈性を向上させる。
- 参考スコア(独自算出の注目度): 20.416696003269674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The high performance of tree ensemble classifiers benefits from a large set of rules, which, in turn, makes the models hard to understand. To improve interpretability, existing methods extract a subset of rules for approximation using model reduction techniques. However, by focusing on the reduced rule set, these methods often lose fidelity and ignore anomalous rules that, despite their infrequency, play crucial roles in real-world applications. This paper introduces a scalable visual analysis method to explain tree ensemble classifiers that contain tens of thousands of rules. The key idea is to address the issue of losing fidelity by adaptively organizing the rules as a hierarchy rather than reducing them. To ensure the inclusion of anomalous rules, we develop an anomaly-biased model reduction method to prioritize these rules at each hierarchical level. Synergized with this hierarchical organization of rules, we develop a matrix-based hierarchical visualization to support exploration at different levels of detail. Our quantitative experiments and case studies demonstrate how our method fosters a deeper understanding of both common and anomalous rules, thereby enhancing interpretability without sacrificing comprehensiveness.
- Abstract(参考訳): ツリーアンサンブル分類器の高性能化は、大きなルールセットの恩恵を受けるため、モデルを理解するのが難しくなる。
解釈性を改善するため,既存手法はモデル還元手法を用いて近似規則のサブセットを抽出する。
しかし、ルールセットの縮小に焦点を合わせることで、これらの手法はしばしば忠実さを失い、その頻度にもかかわらず現実世界のアプリケーションにおいて重要な役割を果たすような異常なルールを無視する。
本稿では,数万のルールを含む木アンサンブル分類法を説明するために,拡張性のある視覚解析手法を提案する。
鍵となる考え方は、ルールを階層として適応的に整理することで、忠実さを失う問題に対処することである。
異常規則の包含を保証するため,各階層レベルでこれらの規則を優先順位付けする異常バイアスモデル還元法を開発した。
この階層的なルールの組織と相まって、さまざまな詳細レベルでの探索を支援するために、行列ベースの階層的可視化を開発する。
我々の定量的実験とケーススタディは、我々の手法が一般的なルールと異常なルールの両方をより深く理解し、包括性を犠牲にすることなく解釈可能性を高めることを実証している。
関連論文リスト
- SoFA: Shielded On-the-fly Alignment via Priority Rule Following [90.32819418613407]
本稿では,各ダイアログにおけるルールを主制御機構として定義する,新たなアライメントパラダイムである優先ルールを提案する。
そこで本研究では,厳密な規則統合と固着性を確保するために,シミュレーションから優先信号に従う半自動蒸留手法であるプライオリティディスティルを提案する。
論文 参考訳(メタデータ) (2024-02-27T09:52:27Z) - Probabilistic Truly Unordered Rule Sets [4.169915659794567]
真に順序のない規則集合に対するTURSを提案する。
我々はルールセットの確率的特性を利用して、類似した確率的出力を持つ場合のみ規則が重複することを許すという直観を生かしている。
我々は,幅広いルールベースの手法に対してベンチマークを行い,モデルの複雑さを低くし,高い競争力のある予測性能を持つルールセットを学習できることを実証した。
論文 参考訳(メタデータ) (2024-01-18T12:03:19Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Finding Alignments Between Interpretable Causal Variables and
Distributed Neural Representations [62.65877150123775]
因果抽象化は、説明可能な人工知能のための有望な理論的枠組みである。
既存の因果抽象法では、高レベルモデルと低レベルモデルの間のアライメントをブルートフォースで探索する必要がある。
これらの制約を克服する分散アライメントサーチ(DAS)を提案する。
論文 参考訳(メタデータ) (2023-03-05T00:57:49Z) - Neuro-Symbolic Hierarchical Rule Induction [12.610497441047395]
Inductive Logic Programming (ILP) 問題を解決するために, 効率的な解釈可能なニューロシンボリックモデルを提案する。
階層構造で組織されたメタルールの集合から構築されたこのモデルでは、メタルールの事実や体述と一致するように埋め込みを学習することで、一階規則が発明される。
我々は, 様々な課題(ILP, 視覚ゲノム, 強化学習)において, 最先端の手法に対して, モデルの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-12-26T17:02:14Z) - Rule Generation for Classification: Scalability, Interpretability, and Fairness [0.0]
制約付き分類のためのルールベースの新しい最適化手法を提案する。
ルールにコスト係数を割り当て、追加制約を導入することにより、解釈可能性と公正性に対処する。
提案手法は,一方の局所的解釈可能性と他方の正当性,他方の精度との間に良好な妥協関係を示す。
論文 参考訳(メタデータ) (2021-04-21T20:31:28Z) - Rewriting a Deep Generative Model [56.91974064348137]
我々は,深層生成モデルによって符号化された特定の規則の操作という,新たな問題設定を導入する。
本稿では,ディープネットワークの層を線形連想メモリとして操作することで,所望のルールを変更する定式化を提案する。
本稿では,生成モデルのルールを対話的に変更し,望ましい効果を得られるユーザインタフェースを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:58:16Z) - Building Rule Hierarchies for Efficient Logical Rule Learning from
Knowledge Graphs [20.251630903853016]
本稿では,ルール階層を用いて非プロミッシングルールを抽出する新しい手法を提案する。
HPMの応用は非プロムルールの除去に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-29T16:33:30Z) - Diverse Rule Sets [20.170305081348328]
ルールベースのシステムは、直感的なif-then表現のためにルネッサンスを経験しています。
本稿では,ルール間の重なり合いを最適化することで,多様なルールセットを推定する新しい手法を提案する。
次に、高い差別性を持ち、重複が少ない規則をサンプリングする効率的なランダム化アルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-06-17T14:15:25Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。