論文の概要: Formally Explaining Decision Tree Models with Answer Set Programming
- arxiv url: http://arxiv.org/abs/2601.03845v1
- Date: Wed, 07 Jan 2026 12:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.491548
- Title: Formally Explaining Decision Tree Models with Answer Set Programming
- Title(参考訳): 解集合プログラミングによる決定木モデルの形式的説明
- Authors: Akihiro Takemura, Masayuki Otani, Katsumi Inoue,
- Abstract要約: 本稿では,多種多様な説明,すなわち十分,対照的,多数,木固有の説明を生成する手法を提案する。
SATベースのアプローチと比較して、ASPベースの手法は、ユーザの好みをエンコードする際の柔軟性を向上し、可能なすべての説明の列挙をサポートする。
- 参考スコア(独自算出の注目度): 4.263043028086137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision tree models, including random forests and gradient-boosted decision trees, are widely used in machine learning due to their high predictive performance. However, their complex structures often make them difficult to interpret, especially in safety-critical applications where model decisions require formal justification. Recent work has demonstrated that logical and abductive explanations can be derived through automated reasoning techniques. In this paper, we propose a method for generating various types of explanations, namely, sufficient, contrastive, majority, and tree-specific explanations, using Answer Set Programming (ASP). Compared to SAT-based approaches, our ASP-based method offers greater flexibility in encoding user preferences and supports enumeration of all possible explanations. We empirically evaluate the approach on a diverse set of datasets and demonstrate its effectiveness and limitations compared to existing methods.
- Abstract(参考訳): ランダムな森林や勾配決定木を含む決定木モデルは、高い予測性能のために機械学習で広く利用されている。
しかし、それらの複雑な構造はしばしば解釈を困難にし、特にモデル決定が正式な正当性を必要とする安全クリティカルなアプリケーションではなおさらである。
近年の研究では、論理的および帰納的説明が自動推論技術によって導出できることが示されている。
本稿では,Answer Set Programming (ASP.NET) を用いて,多種多様な説明,すなわち十分,コントラスト,多数,木固有の説明を生成する手法を提案する。
SATベースのアプローチと比較して、ASPベースの手法は、ユーザの好みをエンコードする際の柔軟性を向上し、可能なすべての説明の列挙をサポートする。
多様なデータセットに対するアプローチを実証的に評価し、既存の手法と比較してその有効性と限界を実証する。
関連論文リスト
- Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Understanding the Language Model to Solve the Symbolic Multi-Step Reasoning Problem from the Perspective of Buffer Mechanism [68.05754701230039]
本研究では,トランスフォーマーモデルにおける情報伝達機構を解明するために,シンボル的多段階推論タスクを構築する。
モデルの推論能力を高めるために,ランダムな行列に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - A Uniform Language to Explain Decision Trees [6.658444706223188]
提案した論理は,従来の文献で考慮した多種多様な解釈可能性クエリを表現できるだけでなく,ユーザが求める説明を最適化するさまざまな目的を指定できることを示す。
OPT-DT-FOILの評価をSATベースで実装し,産業規模の決定木を表現した。
論文 参考訳(メタデータ) (2023-10-18T00:07:38Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。