論文の概要: SAT-Based Rigorous Explanations for Decision Lists
- arxiv url: http://arxiv.org/abs/2105.06782v1
- Date: Fri, 14 May 2021 12:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:49:23.878094
- Title: SAT-Based Rigorous Explanations for Decision Lists
- Title(参考訳): SATに基づく決定リストの厳密な説明
- Authors: Alexey Ignatiev and Joao Marques-Silva
- Abstract要約: 決定リスト(DL)は、機械学習(ML)の分類問題のための幅広い用途を見つけます。
解釈性はいくつかのdlにとって不可解な目標であると主張する。
本稿では,dlsの計算説明は計算困難であることを示す。
- 参考スコア(独自算出の注目度): 17.054229845836332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision lists (DLs) find a wide range of uses for classification problems in
Machine Learning (ML), being implemented in a number of ML frameworks. DLs are
often perceived as interpretable. However, building on recent results for
decision trees (DTs), we argue that interpretability is an elusive goal for
some DLs. As a result, for some uses of DLs, it will be important to compute
(rigorous) explanations. Unfortunately, and in clear contrast with the case of
DTs, this paper shows that computing explanations for DLs is computationally
hard. Motivated by this result, the paper proposes propositional encodings for
computing abductive explanations (AXps) and contrastive explanations (CXps) of
DLs. Furthermore, the paper investigates the practical efficiency of a
MARCO-like approach for enumerating explanations. The experimental results
demonstrate that, for DLs used in practical settings, the use of SAT oracles
offers a very efficient solution, and that complete enumeration of explanations
is most often feasible.
- Abstract(参考訳): 決定リスト(DL)は機械学習(ML)の分類問題に対して幅広い用途を見つけ、多くのMLフレームワークで実装されている。
DLはしばしば解釈可能と見なされる。
しかし,最近の決定木 (DT) の結果に基づいて,解釈性はいくつかのDLの明確な目標であると主張する。
その結果、dlsのいくつかの用途では、(リゴラスな)説明を計算することが重要である。
残念ながら、DTの場合と明らかに対照的に、本論文では、DLの計算説明は計算的に困難であることを示す。
そこで本研究では,DLの帰納的説明 (AXps) とコントラスト的説明 (CXps) に対する命題的符号化を提案する。
さらに,説明を列挙するマルコ的手法の実用性について検討した。
実験結果から, SATオーラクルの使用は, 実運用で使用されるDLに対して極めて効率的な解であり, 説明の完全列挙が可能であることが示唆された。
関連論文リスト
- Large Language Models As Faithful Explainers [67.38301892818778]
大規模言語モデル(LLM)は近年,その豊富な内部知識と推論能力を活用することで,複雑なタスクに対処する技術に長けている。
我々は、LLMの自然言語形式で提供される説明の忠実性を改善するために、生成的説明フレームワークであるxLLMを導入する。
3つのNLUデータセットで行った実験により、xLLMは生成された説明の忠実性を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Description Logics with Abstraction and Refinement [8.958066641323894]
本稿では,抽象レベルが一級市民である記述論理(DL)の拡張を提案する。
結果として生じるDLの系統の推論は決定可能であり、一見無害ないくつかのバリエーションは決定不可能であることが証明された。
論文 参考訳(メタデータ) (2023-06-06T14:27:03Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Logic of Differentiable Logics: Towards a Uniform Semantics of DL [1.1549572298362787]
論理的仕様を満たすためにニューラルネットワークを訓練する方法として、微分論理(DL)が提案されている。
本稿では、微分可能論理学(LDL)と呼ばれるDLを定義するメタ言語を提案する。
我々は,既存のDLの理論的特性を確立するためにLDLを使用し,ニューラルネットワークの検証において実験的な研究を行う。
論文 参考訳(メタデータ) (2023-03-19T13:03:51Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Provably Precise, Succinct and Efficient Explanations for Decision Trees [32.062312674333775]
決定木(DT)は解釈可能な分類器を具現化する。
DTの予測は厳密な説明で説明されるべきである。
デルタ関連集合は簡潔で正確であることを示す。
論文 参考訳(メタデータ) (2022-05-19T13:54:52Z) - Comprehensible Counterfactual Explanation on Kolmogorov-Smirnov Test [56.5373227424117]
我々は,KSテストに失敗するテストデータに対して,反実的説明を生成する問題に対処する。
我々は、KSテストに失敗したテストセットの指数的なサブセット数を列挙し、チェックするのを避ける効率的なアルゴリズムMOCHEを開発した。
論文 参考訳(メタデータ) (2020-11-01T06:46:01Z) - Defeasible reasoning in Description Logics: an overview on DL^N [10.151828072611426]
DLNについて概説し、基礎となる知識工学の要件と、DLNを連続したセマンティックおよび計算上の欠点から保護する特徴を解説する。
また, DLNと他の非単調な意味論を比較し, KLMとDLNの関係を明らかにする。
論文 参考訳(メタデータ) (2020-09-10T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。