論文の概要: SAT-Based Rigorous Explanations for Decision Lists
- arxiv url: http://arxiv.org/abs/2105.06782v1
- Date: Fri, 14 May 2021 12:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:49:23.878094
- Title: SAT-Based Rigorous Explanations for Decision Lists
- Title(参考訳): SATに基づく決定リストの厳密な説明
- Authors: Alexey Ignatiev and Joao Marques-Silva
- Abstract要約: 決定リスト(DL)は、機械学習(ML)の分類問題のための幅広い用途を見つけます。
解釈性はいくつかのdlにとって不可解な目標であると主張する。
本稿では,dlsの計算説明は計算困難であることを示す。
- 参考スコア(独自算出の注目度): 17.054229845836332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision lists (DLs) find a wide range of uses for classification problems in
Machine Learning (ML), being implemented in a number of ML frameworks. DLs are
often perceived as interpretable. However, building on recent results for
decision trees (DTs), we argue that interpretability is an elusive goal for
some DLs. As a result, for some uses of DLs, it will be important to compute
(rigorous) explanations. Unfortunately, and in clear contrast with the case of
DTs, this paper shows that computing explanations for DLs is computationally
hard. Motivated by this result, the paper proposes propositional encodings for
computing abductive explanations (AXps) and contrastive explanations (CXps) of
DLs. Furthermore, the paper investigates the practical efficiency of a
MARCO-like approach for enumerating explanations. The experimental results
demonstrate that, for DLs used in practical settings, the use of SAT oracles
offers a very efficient solution, and that complete enumeration of explanations
is most often feasible.
- Abstract(参考訳): 決定リスト(DL)は機械学習(ML)の分類問題に対して幅広い用途を見つけ、多くのMLフレームワークで実装されている。
DLはしばしば解釈可能と見なされる。
しかし,最近の決定木 (DT) の結果に基づいて,解釈性はいくつかのDLの明確な目標であると主張する。
その結果、dlsのいくつかの用途では、(リゴラスな)説明を計算することが重要である。
残念ながら、DTの場合と明らかに対照的に、本論文では、DLの計算説明は計算的に困難であることを示す。
そこで本研究では,DLの帰納的説明 (AXps) とコントラスト的説明 (CXps) に対する命題的符号化を提案する。
さらに,説明を列挙するマルコ的手法の実用性について検討した。
実験結果から, SATオーラクルの使用は, 実運用で使用されるDLに対して極めて効率的な解であり, 説明の完全列挙が可能であることが示唆された。
関連論文リスト
- FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Description Logics with Abstraction and Refinement [8.958066641323894]
本稿では,抽象レベルが一級市民である記述論理(DL)の拡張を提案する。
結果として生じるDLの系統の推論は決定可能であり、一見無害ないくつかのバリエーションは決定不可能であることが証明された。
論文 参考訳(メタデータ) (2023-06-06T14:27:03Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Logic of Differentiable Logics: Towards a Uniform Semantics of DL [1.1549572298362787]
論理的仕様を満たすためにニューラルネットワークを訓練する方法として、微分論理(DL)が提案されている。
本稿では、微分可能論理学(LDL)と呼ばれるDLを定義するメタ言語を提案する。
我々は,既存のDLの理論的特性を確立するためにLDLを使用し,ニューラルネットワークの検証において実験的な研究を行う。
論文 参考訳(メタデータ) (2023-03-19T13:03:51Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - On Tackling Explanation Redundancy in Decision Trees [19.833126971063724]
決定木(DT)は機械学習(ML)モデルの解釈可能性の理想を表わしている。
本稿では, 決定木の解釈可能性と説明の簡潔さが等価である限り, 決定木を解釈可能とみなさざるを得ないことを示す理論的および実験的議論について述べる。
論文 参考訳(メタデータ) (2022-05-20T05:33:38Z) - Provably Precise, Succinct and Efficient Explanations for Decision Trees [32.062312674333775]
決定木(DT)は解釈可能な分類器を具現化する。
DTの予測は厳密な説明で説明されるべきである。
デルタ関連集合は簡潔で正確であることを示す。
論文 参考訳(メタデータ) (2022-05-19T13:54:52Z) - Defeasible reasoning in Description Logics: an overview on DL^N [10.151828072611426]
DLNについて概説し、基礎となる知識工学の要件と、DLNを連続したセマンティックおよび計算上の欠点から保護する特徴を解説する。
また, DLNと他の非単調な意味論を比較し, KLMとDLNの関係を明らかにする。
論文 参考訳(メタデータ) (2020-09-10T16:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。