論文の概要: A Symbolic Language for Interpreting Decision Trees
- arxiv url: http://arxiv.org/abs/2310.11636v1
- Date: Wed, 18 Oct 2023 00:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:11:08.646685
- Title: A Symbolic Language for Interpreting Decision Trees
- Title(参考訳): 決定木を解釈するための記号言語
- Authors: Marcelo Arenas, Pablo Barcelo, Diego Bustamente, Jose Caraball,
Bernardo Subercaseaux
- Abstract要約: 決定木を解釈するシンボリック言語であるExplainDTを提示する。
StratiFOILedは評価の表現性と複雑さをバランスさせる。
提案式としてStratiFOILedクエリを符号化するための最適化された実装を提供する。
- 参考スコア(独自算出の注目度): 7.143485463760098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent development of formal explainable AI has disputed the folklore
claim that "decision trees are readily interpretable models", showing different
interpretability queries that are computationally hard on decision trees, as
well as proposing different methods to deal with them in practice. Nonetheless,
no single explainability query or score works as a "silver bullet" that is
appropriate for every context and end-user. This naturally suggests the
possibility of "interpretability languages" in which a wide variety of queries
can be expressed, giving control to the end-user to tailor queries to their
particular needs. In this context, our work presents ExplainDT, a symbolic
language for interpreting decision trees. ExplainDT is rooted in a carefully
constructed fragment of first-ordered logic that we call StratiFOILed.
StratiFOILed balances expressiveness and complexity of evaluation, allowing for
the computation of many post-hoc explanations--both local (e.g., abductive and
contrastive explanations) and global ones (e.g., feature relevancy)--while
remaining in the Boolean Hierarchy over NP. Furthermore, StratiFOILed queries
can be written as a Boolean combination of NP-problems, thus allowing us to
evaluate them in practice with a constant number of calls to a SAT solver. On
the theoretical side, our main contribution is an in-depth analysis of the
expressiveness and complexity of StratiFOILed, while on the practical side, we
provide an optimized implementation for encoding StratiFOILed queries as
propositional formulas, together with an experimental study on its efficiency.
- Abstract(参考訳): フォーマルな説明可能なAIの最近の発展は、「決定木は容易に解釈可能なモデルであり、決定木で計算的に難しい異なる解釈可能性クエリを示し、実際にそれらを扱う異なる方法を提案する」という民間伝承の主張に異議を唱えている。
それでも、単一の説明可能性クエリやスコアは、すべてのコンテキストとエンドユーザに適した"銀の弾丸"として機能しない。
このことは、様々なクエリを表現できる「解釈可能性言語」の可能性を示しており、エンドユーザが特定のニーズに合わせてクエリを調整できるようになる。
この文脈では、決定木を解釈するためのシンボル言語であるExplainDTを紹介します。
ExplainDTは、私たちがStratiFOILedと呼ぶ一階述語論理の慎重に構築された断片に根ざしています。
StratiFOILedは評価の表現力と複雑さのバランスを保ち、局所的(例:誘惑的、対照的な説明)と大域的(例:特徴の関連性)の両方を計算できるが、NP上のブール階層に残る。
さらに、StratiFOILedクエリは、NP-problemのブール結合として記述できるので、SATソルバへの一定回数の呼び出しで実際にそれらを評価できる。
理論的には, ストラティフレートの表現性と複雑性を深く分析し, 実用的な手法としてストラティフレートクエリを命題式として符号化する最適化実装と, その効率に関する実験的研究を行った。
関連論文リスト
- Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical
Reasoning Capabilities of Language Models [58.76688462256284]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
一つのタスクトレーニング,複数タスクトレーニング,および思考知識の蒸留微調整手法の連鎖について検討し,異なる論理的推論カテゴリにおけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - OPERA:Operation-Pivoted Discrete Reasoning over Text [33.36388276371693]
OPERA(オペラ)は、機械読解のための操作駆動型離散推論フレームワークである。
推論能力と解釈可能性を促進するために、軽量なシンボル操作をニューラルモジュールとして使用する。
DROPとRACENumのデータセットの実験は、OPERAの推論能力を示している。
論文 参考訳(メタデータ) (2022-04-29T15:41:47Z) - On Guaranteed Optimal Robust Explanations for NLP Models [16.358394218953833]
我々は,マシーン学習のための推論に基づく説明を構築し,ニューラルネットワークモデルのための局所的説明を計算する方法を開発した。
我々は,それぞれ暗黙の打撃集合と最大普遍部分集合に基づく2つの解アルゴリズムを提案する。
SST、Twitter、IMDBデータセットから、広く使用されている3つの感情分析タスクと最大100ワードのテキストに基づいてフレームワークを評価します。
論文 参考訳(メタデータ) (2021-05-08T08:44:48Z) - i-Algebra: Towards Interactive Interpretability of Deep Neural Networks [41.13047686374529]
i-Algebraはディープニューラルネットワーク(DNN)を解釈するための対話型フレームワークである。
その中核は原子、構成可能な演算子のライブラリであり、さまざまな入力粒度、異なる推論段階、および異なる解釈の視点からモデル挙動を説明する。
我々は,敵入力の検査,モデル不整合の解消,汚染データのクリーン化など,一連の代表的分析タスクでユーザ研究を行い,その有望なユーザビリティを示す。
論文 参考訳(メタデータ) (2021-01-22T19:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。