論文の概要: Surrogate Interpretable Graph for Random Decision Forests
- arxiv url: http://arxiv.org/abs/2506.01988v1
- Date: Sat, 17 May 2025 09:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-08 12:40:08.663145
- Title: Surrogate Interpretable Graph for Random Decision Forests
- Title(参考訳): ランダム決定森林のサロゲート解釈グラフ
- Authors: Akshat Dubey, Aleksandar Anžel, Georges Hattab,
- Abstract要約: 健康情報学の分野は、ランダムな森林モデルの発展に大きく影響されている。
ランダムな森林における特徴量や推定器の増加は、ドメインの専門家がグローバルな特徴の相互作用を正確に解釈するのを防ぐことができる。
代理解釈可能なグラフの実装は、そのような高い領域にとって重要な大域的解釈可能性を高める。
- 参考スコア(独自算出の注目度): 45.46706627196389
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The field of health informatics has been profoundly influenced by the development of random forest models, which have led to significant advances in the interpretability of feature interactions. These models are characterized by their robustness to overfitting and parallelization, making them particularly useful in this domain. However, the increasing number of features and estimators in random forests can prevent domain experts from accurately interpreting global feature interactions, thereby compromising trust and regulatory compliance. A method called the surrogate interpretability graph has been developed to address this issue. It uses graphs and mixed-integer linear programming to analyze and visualize feature interactions. This improves their interpretability by visualizing the feature usage per decision-feature-interaction table and the most dominant hierarchical decision feature interactions for predictions. The implementation of a surrogate interpretable graph enhances global interpretability, which is critical for such a high-stakes domain.
- Abstract(参考訳): 健康情報学の分野は、ランダム森林モデルの発展に大きく影響され、特徴的相互作用の解釈可能性に大きな進歩をもたらした。
これらのモデルは、過度な適合と並列化に対する堅牢性によって特徴づけられ、この領域で特に有用である。
しかし、ランダムな森林における特徴量や推定器の増加は、ドメインの専門家がグローバルな特徴の相互作用を正確に解釈することを防ぎ、信頼と規制の遵守を損なう。
代理解釈可能性グラフと呼ばれる手法が,この問題に対処するために開発された。
グラフと混合整数線形プログラミングを使用して、機能の相互作用を分析し視覚化する。
これにより、決定-機能-相互作用テーブルあたりの機能利用と、予測のための最も支配的な階層的決定特徴の相互作用を可視化することで、解釈可能性を向上させる。
代理解釈可能なグラフの実装は、そのような高い領域にとって重要な大域的解釈可能性を高める。
関連論文リスト
- Feature Importance in Pedestrian Intention Prediction: A Context-Aware Review [9.475536008455133]
コンピュータビジョンとディープニューラルネットワークを用いた自律走行車における歩行者横断意図の予測の最近の進歩は有望である。
歩行者の意図予測に適した新しいアプローチであるCAPFI(Context-aware Permutation Feature Importance)を導入する。
CAPFIは、細分化されたシナリオコンテキストを活用することにより、より解釈可能性と信頼性の高い特徴重要度評価を可能にする。
論文 参考訳(メタデータ) (2024-09-11T22:13:01Z) - Feature graphs for interpretable unsupervised tree ensembles: centrality, interaction, and application in disease subtyping [0.24578723416255746]
特徴の選択は、モデルの解釈可能性を高める上で重要な役割を担います。
決定木を集約することで得られる精度は、解釈可能性の犠牲となる。
この研究では、教師なしランダムな森林から特徴グラフを構築するための新しい手法を紹介した。
論文 参考訳(メタデータ) (2024-04-27T12:47:37Z) - Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
InterpretCCは、人間の理解の容易さと忠実さの説明を最適化する、本質的に解釈可能なニューラルネットワークのファミリーである。
本報告では,InterpretCCの説明は,他の本質的な解釈可能なアプローチよりも,行動性や有用性が高いことを示す。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Improving Neural Additive Models with Bayesian Principles [54.29602161803093]
ニューラル加算モデル(NAM)は、個別の加算サブネットワークでキャリブレーションされた入力特徴を扱うことにより、ディープニューラルネットワークの透明性を高める。
本研究では,Laplace-approximated NAM (LA-NAMs) を開発した。
論文 参考訳(メタデータ) (2023-05-26T13:19:15Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - How does this interaction affect me? Interpretable attribution for
feature interactions [19.979889568380464]
我々はArchipelagoと呼ばれる相互作用属性と検出フレームワークを提案する。
標準アノテーションラベルを用いた実験により,本手法は同等の手法よりもはるかに解釈可能な説明を提供することが示された。
また、ディープニューラルネットワークに新たな洞察を与えるアプローチの視覚化も提供しています。
論文 参考訳(メタデータ) (2020-06-19T05:14:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。