論文の概要: Computing Abductive Explanations for Boosted Trees
- arxiv url: http://arxiv.org/abs/2209.07740v1
- Date: Fri, 16 Sep 2022 06:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:59:18.473158
- Title: Computing Abductive Explanations for Boosted Trees
- Title(参考訳): ブーストツリーの導出的説明の計算
- Authors: Gilles Audemard, Jean-Marie Lagniez, Pierre Marquis, Nicolas
Szczepanski
- Abstract要約: 本稿では,高木に対する木固有の説明法について紹介する。
木固有の説明は時間で計算できる帰納的説明であることを示す。
また、木固有の説明から、サブセット最小誘引的説明を導出する方法についても説明する。
- 参考スコア(独自算出の注目度): 22.349433202401354
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Boosted trees is a dominant ML model, exhibiting high accuracy. However,
boosted trees are hardly intelligible, and this is a problem whenever they are
used in safety-critical applications. Indeed, in such a context, rigorous
explanations of the predictions made are expected. Recent work have shown how
subset-minimal abductive explanations can be derived for boosted trees, using
automated reasoning techniques. However, the generation of such well-founded
explanations is intractable in the general case. To improve the scalability of
their generation, we introduce the notion of tree-specific explanation for a
boosted tree. We show that tree-specific explanations are abductive
explanations that can be computed in polynomial time. We also explain how to
derive a subset-minimal abductive explanation from a tree-specific explanation.
Experiments on various datasets show the computational benefits of leveraging
tree-specific explanations for deriving subset-minimal abductive explanations.
- Abstract(参考訳): ブーストツリーはMLモデルの主流であり、精度が高い。
しかし、ブーストされた木はほとんど理解できず、安全クリティカルなアプリケーションで使用される場合、これは問題となる。
実際、このような文脈では、予測の厳密な説明が期待されている。
近年の研究では, 自動推論技術を用いて, 木を増木するために, サブセット最小誘引的説明を導出する方法が示されている。
しかし、そのような確固たる説明の生成は一般的には難解である。
それらの生成のスケーラビリティを向上させるために,ブーストされた木に対する木固有の説明という概念を導入する。
木固有の説明は多項式時間で計算できる帰納的説明であることを示す。
また、木固有の説明からサブセット最小誘引的説明を導出する方法についても説明する。
様々なデータセットの実験は、木固有の説明を利用して、サブセット最小誘引的説明を導出する計算上の利点を示している。
関連論文リスト
- Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Verifying Relational Explanations: A Probabilistic Approach [2.113770213797994]
我々は,GNNExplainerによる説明の不確実性を評価する手法を開発した。
説明において不確実性を定量化する因子グラフモデルを学習する。
いくつかのデータセットで得られた結果は,GNNExplainerによる説明の検証に有効であることを示している。
論文 参考訳(メタデータ) (2024-01-05T08:14:51Z) - Probabilistic Tree-of-thought Reasoning for Answering
Knowledge-intensive Complex Questions [93.40614719648386]
大規模言語モデル(LLM)は、知識集約的な複雑な質問にチェーン・オブ・シント(CoT)推論で答えることができる。
最近の研究は、CoT推論を強化するための外部知識の回収に向けられている。
確率的ツリー・オブ・シント推論(ProbTree)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:52:37Z) - Improving the Validity of Decision Trees as Explanations [2.457872341625575]
葉ノード間の最大誤分類誤差を最小限に抑えるために,浅い木を訓練する。
浅い木の全体的な統計性能は最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-06-11T21:14:29Z) - Conceptual Views on Tree Ensemble Classifiers [0.0]
ランダムフォレストと関連するツリーベースの手法は、テーブルベースのデータから教師付き学習に人気がある。
並列化の容易さとは別に 分類性能も優れています
この不利を補うために統計手法が用いられることが多いが、局所的な説明、特にグローバルな説明の能力は限られている。
論文 参考訳(メタデータ) (2023-02-10T14:33:21Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Explaining Answers with Entailment Trees [16.555369850015055]
我々は,証拠が回答にどのようにつながるのかを体系的に示すことで,回答を説明することを目的とする。
私たちのアプローチは、エンテイメントツリー、すなわち、中間的な結論を通じて知られている事実から最終的な答えまで、エンテイメントステップのツリーの形で説明を生成することです。
このスキルでモデルをトレーニングするために、マルチステップのエンテイメントツリーを含む最初のデータセットであるEnTAILMENTBANKを作成しました。
論文 参考訳(メタデータ) (2021-04-17T23:13:56Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。