論文の概要: A Symbolic Language for Interpreting Decision Trees
- arxiv url: http://arxiv.org/abs/2310.11636v1
- Date: Wed, 18 Oct 2023 00:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:11:08.646685
- Title: A Symbolic Language for Interpreting Decision Trees
- Title(参考訳): 決定木を解釈するための記号言語
- Authors: Marcelo Arenas, Pablo Barcelo, Diego Bustamente, Jose Caraball,
Bernardo Subercaseaux
- Abstract要約: 決定木を解釈するシンボリック言語であるExplainDTを提示する。
StratiFOILedは評価の表現性と複雑さをバランスさせる。
提案式としてStratiFOILedクエリを符号化するための最適化された実装を提供する。
- 参考スコア(独自算出の注目度): 7.143485463760098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent development of formal explainable AI has disputed the folklore
claim that "decision trees are readily interpretable models", showing different
interpretability queries that are computationally hard on decision trees, as
well as proposing different methods to deal with them in practice. Nonetheless,
no single explainability query or score works as a "silver bullet" that is
appropriate for every context and end-user. This naturally suggests the
possibility of "interpretability languages" in which a wide variety of queries
can be expressed, giving control to the end-user to tailor queries to their
particular needs. In this context, our work presents ExplainDT, a symbolic
language for interpreting decision trees. ExplainDT is rooted in a carefully
constructed fragment of first-ordered logic that we call StratiFOILed.
StratiFOILed balances expressiveness and complexity of evaluation, allowing for
the computation of many post-hoc explanations--both local (e.g., abductive and
contrastive explanations) and global ones (e.g., feature relevancy)--while
remaining in the Boolean Hierarchy over NP. Furthermore, StratiFOILed queries
can be written as a Boolean combination of NP-problems, thus allowing us to
evaluate them in practice with a constant number of calls to a SAT solver. On
the theoretical side, our main contribution is an in-depth analysis of the
expressiveness and complexity of StratiFOILed, while on the practical side, we
provide an optimized implementation for encoding StratiFOILed queries as
propositional formulas, together with an experimental study on its efficiency.
- Abstract(参考訳): フォーマルな説明可能なAIの最近の発展は、「決定木は容易に解釈可能なモデルであり、決定木で計算的に難しい異なる解釈可能性クエリを示し、実際にそれらを扱う異なる方法を提案する」という民間伝承の主張に異議を唱えている。
それでも、単一の説明可能性クエリやスコアは、すべてのコンテキストとエンドユーザに適した"銀の弾丸"として機能しない。
このことは、様々なクエリを表現できる「解釈可能性言語」の可能性を示しており、エンドユーザが特定のニーズに合わせてクエリを調整できるようになる。
この文脈では、決定木を解釈するためのシンボル言語であるExplainDTを紹介します。
ExplainDTは、私たちがStratiFOILedと呼ぶ一階述語論理の慎重に構築された断片に根ざしています。
StratiFOILedは評価の表現力と複雑さのバランスを保ち、局所的(例:誘惑的、対照的な説明)と大域的(例:特徴の関連性)の両方を計算できるが、NP上のブール階層に残る。
さらに、StratiFOILedクエリは、NP-problemのブール結合として記述できるので、SATソルバへの一定回数の呼び出しで実際にそれらを評価できる。
理論的には, ストラティフレートの表現性と複雑性を深く分析し, 実用的な手法としてストラティフレートクエリを命題式として符号化する最適化実装と, その効率に関する実験的研究を行った。
関連論文リスト
- P-FOLIO: Evaluating and Improving Logical Reasoning with Abundant Human-Written Reasoning Chains [97.25943550933829]
P-FOLIO(P-FOLIO)は、多種多様で複雑な推論連鎖からなる人称注釈付きデータセットである。
我々はP-FOLIOを用いて大規模言語モデル推論機能の評価と改善を行う。
論文 参考訳(メタデータ) (2024-10-11T19:22:57Z) - Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Leveraging Structured Information for Explainable Multi-hop Question
Answering and Reasoning [14.219239732584368]
本研究では,マルチホップ質問応答のための抽出された意味構造(グラフ)の構築と活用について検討する。
実験結果と人的評価の結果から、我々のフレームワークはより忠実な推論連鎖を生成し、2つのベンチマークデータセットのQA性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T05:32:39Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Foundations of Symbolic Languages for Model Interpretability [2.3361634876233817]
本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
論文 参考訳(メタデータ) (2021-10-05T21:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。