論文の概要、ライセンス

# (参考訳) グラフベース分類器の効率的な説明について [全文訳有]

On Efficiently Explaining Graph-Based Classifiers ( http://arxiv.org/abs/2106.01350v2 )

ライセンス: CC BY 4.0
Xuanxiang Huang, Yacine Izza, Alexey Ignatiev, Joao Marques-Silva(参考訳) 近年の研究では、決定木(DT)は解釈可能であるだけでなく、DTの1つのPI展開を計算するための多項式時間アルゴリズムも提案されている。 本稿では,決定木や二分決定ダイアグラムを含む大域的に決定グラフと呼ばれる幅広い分類器に対して,その多値変種に対して,多項式時間計算アルゴリズムが存在することを示す。 さらに,1つの対照的な説明を計算するための多項式時間アルゴリズムを提案する。 これらの新しいアルゴリズムは説明グラフ(xpg)に基づいている。 XpGは、決定グラフに対する説明の理論的および実用的な計算を可能にするグラフ表現である。 さらに,本論文では,説明の列挙に有効な解法を提案するとともに,ある特徴が何らかの説明に含まれるかどうかを判断する複雑さについて考察する。 決定木を具体例にすると、すべての対照的な説明の集合は多項式時間で列挙できることを示した。 最後に,本論文で提案するアルゴリズムの実用性について,幅広い公開ベンチマークで検証した。

Recent work has shown that not only decision trees (DTs) may not be interpretable but also proposed a polynomial-time algorithm for computing one PI-explanation of a DT. This paper shows that for a wide range of classifiers, globally referred to as decision graphs, and which include decision trees and binary decision diagrams, but also their multi-valued variants, there exist polynomial-time algorithms for computing one PI-explanation. In addition, the paper also proposes a polynomial-time algorithm for computing one contrastive explanation. These novel algorithms build on explanation graphs (XpG's). XpG's denote a graph representation that enables both theoretical and practically efficient computation of explanations for decision graphs. Furthermore, the paper pro- poses a practically efficient solution for the enumeration of explanations, and studies the complexity of deciding whether a given feature is included in some explanation. For the concrete case of decision trees, the paper shows that the set of all contrastive explanations can be enumerated in polynomial time. Finally, the experimental results validate the practical applicability of the algorithms proposed in the paper on a wide range of publicly available benchmarks.
公開日: Thu, 3 Jun 2021 08:15:16 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
On Efficiently Explaining Graph-Based Classifiers グラフベース分類器の効率的な説明について 0.43
Xuanxiang Huang1 , Yacine Izza1 , Alexey Ignatiev2 , Joao Marques-Silva3 Xuanxiang Huang1, Yacine Izza1, Alexey Ignatiev2, Joao Marques-Silva3 0.78
1University of Toulouse, France フランス・トゥールーズ大学 0.52
2Monash University, Melbourne, Australia 2Monash University, Melbourne (オーストラリア) 0.87
3IRIT, CNRS, Toulouse, France 3IRIT, CNRS, トゥールーズ, フランス 0.79
{xuanxiang.huang,yaci ne.izza}@univ-toulouse.fr, alexey.ignatiev@mona sh.edu, xuanxiang.huang,yaci ne.izza}@univ-toulouse.fr, alexey.ignatiev@mona sh.edu, 0.62
joao.marques-silva@i rit.fr joao.marques-silva@i rit.fr 0.47
1 2 0 2 n u J 1 2 0 2 n u J 0.85
3 ] I A . s c [ 3 【私】 A! sc [ 0.65
2 v 0 5 3 1 0 2 v 0 5 3 1 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Recent work has shown that not only decision trees (DTs) may not be interpretable but also proposed a polynomial-time algorithm for computing one PI-explanation of a DT. 概要 近年の研究では、決定木(DT)は解釈可能であるだけでなく、DTの1つのPI展開を計算するための多項式時間アルゴリズムも提案されている。 0.55
This paper shows that for a wide range of classifiers, globally referred to as decision graphs, and which include decision trees and binary decision diagrams, but also their multi-valued variants, there exist polynomial-time algorithms for computing one PI-explanation. 本稿では,決定木や二分決定ダイアグラムを含む大域的に決定グラフと呼ばれる幅広い分類器に対して,その多値変種に対して,多項式時間計算アルゴリズムが存在することを示す。 0.73
In addition, the paper also proposes a polynomial-time algorithm for computing one contrastive explanation. さらに,1つの対照的な説明を計算するための多項式時間アルゴリズムを提案する。 0.67
These novel algorithms build on explanation graphs (XpG’s). これらの新しいアルゴリズムは説明グラフ(XpG)に基づいている。 0.79
XpG’s denote a graph representation that enables both theoretical and practically efficient computation of explanations for decision graphs. XpGは、決定グラフに対する説明の理論的および実用的な計算を可能にするグラフ表現である。 0.85
Furthermore, the paper proposes a practically efficient solution for the enumeration of explanations, and studies the complexity of deciding whether a given feature is included in some explanation. さらに,説明の列挙に有効な解法を提案し,ある特徴が何らかの説明に含まれるかどうかを判断する複雑さについて検討した。 0.76
For the concrete case of decision trees, the paper shows that the set of all contrastive explanations can be enumerated in polynomial time. 決定木を具体例にすると、すべての対照的な説明の集合は多項式時間で列挙できることを示した。 0.71
Finally, the experimental results validate the practical applicability of the algorithms proposed in the paper on a wide range of publicly available benchmarks. 最後に,本論文で提案するアルゴリズムの実用性について,幅広い公開ベンチマークで検証した。 0.57
1 Introduction The emerging societal impact of Machine Learning (ML) and its foreseen deployment in safety critical applications, puts additional demands on approaches for verifying and explaining ML models (Weld and Bansal 2019). はじめに 機械学習(ML)の新たな社会的影響と、安全クリティカルなアプリケーションへの展開により、MLモデルの検証と説明のためのアプローチ(Weld and Bansal 2019)がさらに求められている。 0.69
The vast majority of approaches for explainability in ML (often referred to as eXplainable AI (XAI) (DARPA 2016)) are heuristic, offering no formal guarantees of soundness, with well-known examples including tools like LIME, SHAP or Anchors (Ribeiro et al 2016b; Lundberg and Lee 2017; Ribeiro et al 2018). ML(しばしばeXplainable AI (DARPA 2016)と呼ばれる)における説明可能性に関するほとんどのアプローチはヒューリスティックであり、LIME、SHAP、Anchors(Ribeiro et al 2016b; Lundberg and Lee 2017; Ribeiro et al 2018)といったツールを含む、正式な健全性を保証するものではない。 0.77
(Recent surveys (Guidotti et al 2019) cover a wider range of heuristic methods.) (最近の調査(Guidottiら、2019年)は幅広いヒューリスティックな手法をカバーしている。) 0.69
Moreover, recent work has shed light on the important practical limitations of heuristic XAI approaches (Narodytska et al 2019b; Ignatiev et al 2019c; Camburu et al 2019; Lakkaraju and Bastani 2020; Slack et al 2020; Ignatiev 2020). さらに最近の研究は、ヒューリスティックXAIアプローチの重要な実用的限界(Narodytska et al 2019b; Ignatiev et al 2019c; Camburu et al 2019; Lakkaraju and Bastani 2020; Slack et al 2020; Ignatiev 2020; Ignatiev 2020)に光を当てている。 0.91
contrast, proposed approaches years コントラスト 提案 数年後 0.58
recent formal In been in Ignatiev et al 2019a; Ignatiev et al 2019b; Audemard et al 2020) (albeit 最近 ignatiev et al 2019a; ignatiev et al 2019b; audemard et al 2020)の正式名称。 0.69
to XAI have (Shih et al 2018; Shih et al 2019; Darwiche and Hirth 2020; it can be related to past to XAI have (Shih et al 2018; Shih et al 2019; Darwiche and Hirth 2020; it can be associated to past. 0.87
e g First, important EG まず第一に 重要 0.52
formal guarantees, work on logic-based explanations (e g (Shanahan 1989; Falappa et al 2002; P´erez and Uzc´ategui 2003))). 正式な保証だ 論理に基づく説明 (e g (Shanahan 1989; Falappa et al 2002; P ́erez and Uzc ́ategui 2003))。 0.78
The most widely studied form of explanation consists in the identification of prime implicants (PI) of the decision function associated with an ML classifier, being referred to as PI-explanations. 最も広く研究されている説明形式は、ML分類器に関連する決定機能の素因果(PI)の同定であり、PI説明と呼ばれる。 0.68
Although PI-explanations they repreoffer they sent minimal sufficient reasons for a prediction, do have their own drawbacks. PI-Explanations they repreofferは予測の十分な理由を最小限に抑えたが、独自の欠点がある。 0.62
in most settings, finding one PI-explanation is NP-hard, and in some settings scalability is an issue (Shih et al 2018; Ignatiev et al 2019a). ほとんどの設定では、ひとつのPI説明を見つけるのはNPハードで、いくつかの設定ではスケーラビリティが問題になります(Shih et al 2018; Ignatiev et al 2019a)。 0.60
Second, users have little control on the size of computed PI-explanations (and it is wellknown the difficulty that humans have in grasping complex concepts). 第二に、ユーザーは計算されたPI説明のサイズをほとんど制御できない(複雑な概念を把握できないことはよく知られている)。 0.66
Third, there can be many PI-explanations, and it is often unclear which ones are preferred. 第三に、多くのPI説明があり、どちらが好まれるかはよくわからない。
訳抜け防止モード: 第3に,多数のPI – 説明,そして どちらが好まれるかは しばしば不明です
0.70
Fourth, in practice users may often prefer high-level explanations, in contrast with feature-based, low-level explanations. 第4に、ユーザーは機能ベースの低レベルの説明とは対照的に、しばしば高レベルの説明を好む。 0.60
Despite these drawbacks, it is plain that PI-explanations offer a sound basis upon which one can expect to develop theoretically sound and practically effective approaches for computing explanations. これらの欠点にもかかわらず、PI-Explanationsは理論的に健全で実用的な計算説明法の開発を期待できる健全な基盤を提供するのは明らかである。 0.62
For example, more recent work has demonstrated the tractability of PIexplanations for some ML models (Audemard et al 2020; Marques-Silva et al 2020; Marques-Silva et al 2021; Izza et al 2021), in some cases allowing for polynomial delay enumeration (Marques-Silva et al 2020). 例えば、最近の研究では、いくつかのmlモデル(audemard et al 2020、marques-silva et al 2020、marques-silva et al 2021、izza et al 2021)のピエックスプランテーションの扱いやすさが実証されている。
訳抜け防止モード: 例えば、最近の研究は、いくつかのMLモデル(Audemard et al 2020 ; Marques - Silva et al 2020 ; Marques - Silva et al 2021 ; Izza et al 2021 )に対するPIエクスプランテーションのトラクタビリティを実証している。 多項式遅延列挙を許容するケースもある(Marques - Silva et al 2020)。
0.71
Also, recent work (Ignatiev 2020; Izza and Marques-Silva 2021; Ignatiev and Marques-Silva 2021; Izza et al 2021) showed that, even for ML models for which computing a PIexplanation is NP-hard, scalability may not be an obstacle. また、最近の研究(Ignatiev 2020; Izza and Marques-Silva 2021; Ignatiev and Marques-Silva 2021; Izza et al 2021; Izza et al 2021)では、PIエクスプランテーションの計算がNPハードであるMLモデルでさえ、スケーラビリティは障害にならないことを示した。 0.69
Moreover, it was recently shown that finding explanations can be crucial even for ML models that are generally deemed interpretable1. さらに, 一般に解釈可能な1と見なされるmlモデルにおいても, 説明を見つけることが重要であることが示された。 0.61
One such example are decision trees (Izza et al 2020). そのような例として決定木(izza et al 2020)がある。 0.66
Decision trees (DTs) are not only among the most widely used ML models, but are also generally regarded as interpretable (Breiman 2001; Freitas 2013; Ribeiro et al 2016a; Montavon et al 2018; Samek et al 2019; Miller 2019; Xu et al 2019; Guidotti et al 2019; 決定木(dts)は、最も広く使われているmlモデルに限らず、一般に解釈可能であるとみなされている(breiman 2001; freitas 2013; ribeiro et al 2016a; montavon et al 2018; samek et al 2019; miller 2019; xu et al 2019; guidotti et al 2019)。 0.81
Molnar 2019; Rudin 2019; Molnar 2019; Rudin 2019 0.70
1Interpretability is regarded a subjective concept, with no accepted rigorous definition (Lipton 2018). 1Interpretabilityは厳密な定義を持たない主観的概念とみなされる(Lipton 2018)。 0.86
In this paper, we equate interpretability with explanation succinctness. 本稿では,説明簡潔さと解釈可能性の等価性について述べる。 0.53
英語(論文から抽出)日本語訳スコア
Silva et al 2020). シルバと2020年)。 0.55
However, recent work (Izza et al 2020) has shown that paths in DTs may contain literals that are irrelevant for identifying minimal sufficient reasons for a prediction, and that the number of redundant literals can grow asymptotically as large as the number of features. しかし、最近の研究 (Izza et al 2020) では、DTの経路には予測に必要最小限の理由を特定できないリテラルが含まれており、冗長リテラルの数は特徴の数と同じくらい漸近的に増加することが示されている。 0.72
Furthermore, it was also shown (Izza et al 2020) that PI-explanations for DTs can be computed in polynomial time. さらに (Izza et al 2020) では, DTのPI説明は多項式時間で計算可能であることを示した。 0.78
Moreover, independent work showed that finding a smallest explanation is hard for NP (Barcel´o et al 2020), thus hinting at the need to finding PI-explanations in the case of DTs. さらに、独立研究により、最小の説明を見つけることはNP(Barcel ́o et al 2020)にとって難しいことが示され、DTの場合、PI説明を見つける必要性が示唆された。 0.61
This paper complements this earlier work with several novel results. 本稿では,この先行研究をいくつかの新しい結果で補完する。 0.53
First, the paper considers both PI (or abductive) explanations (AXps) and contrastive explanations (CXps) (Miller 2019; Ignatiev et al 2020), which will be jointly referred to as explanations (XPs). まず, PI (AXps) とコントラスト的説明 (CXps) (Miller 2019; Ignatiev et al 2020) の両方について検討し, 共同で説明 (XP) と呼ぶ。
訳抜け防止モード: まず, PI (abductive ) の説明 (AXps ) について考察する。 対照的な説明 (CXps ) ( Miller 2019 ; Ignatiev et al 2020 ) これは共同で説明(XP)と呼ばれます。
0.71
Second, the paper shows that XPs can be computed in polynomial time for a much larger class of classifiers, which will be conjointly referred to as decision graphs (Oliver 1992; Kohavi 1994)2. 第二に、この論文は、XP がより大きな分類器のクラスに対して多項式時間で計算できることを示し、これは共に決定グラフ (Oliver 1992; Kohavi 1994)2 と呼ばれる。 0.82
For that, the paper introduces a new graph representation, namely the explanation graph, and shows that for any classifier (and instance) that can be reduced to an explanation graph, XPs can be computed in polynomial time. そこで本稿では,説明グラフという新しいグラフ表現を導入し,説明グラフに還元可能な任意の分類器(および例)に対して,xpsを多項式時間で計算可能であることを示す。 0.85
(For example, multi-valued variants of decision trees, graphs or diagrams can be reduced to explanation graphs.) (例えば、決定木、グラフ、図の多値変種を説明グラフに還元することができる。) 0.74
The paper also shows that the MARCO algorithm for enumerating MUSes/MCSes (Liffiton et al 2016) can be adapted to the enumeration of XPs, yielding a solution that is very efficient in practice. また,MUS/MCSeを列挙するMARCOアルゴリズム (Liffiton et al 2016) が XP の列挙に適応できることを示す。
訳抜け防止モード: また,本論文では,MARCOアルゴリズムについて述べる。 MUS/MCSを列挙する(Liffiton et al 2016) XPの列挙に適応できます 非常に効率的な解決策を生み出します
0.81
For the case of DTs, the paper proves that the set of all CXps can be computed in polynomial time. DTの場合、この論文はすべてのCXpsの集合が多項式時間で計算可能であることを証明している。 0.68
In turn, this result offers an alternative approach for the enumeration of PI-explanations, e g based on hitting set dualization (Reiter 1987; Liffiton and Sakallah 2008). 逆に、この結果はPI-説明の列挙の代替的アプローチ、例えばヒットセットの双対化に基づくgを提供する(Reiter 1987; Liffiton and Sakallah 2008)。 0.81
Finally, we investigate the explanation membership problem, i.e. 最後に,説明会員問題,すなわち説明会員問題について検討する。 0.52
to decide whether a feature (given its assigned value) can be included in some explanation (either AXp or CXp). ある特徴(割り当てられた値)を何らかの説明(AXpまたはCXp)に含めることができるかどうかを決定する。 0.77
The paper shows that for arbitrary explanation graphs, the explanation membership problem is in NP, while for a propositional formula in disjunctive normal form (DNF) is shown to be hard for ΣP 2. 論文は、任意の説明グラフに対して、説明会員問題はNP内にあり、一方、可換正規形式 (DNF) の命題公式は、ΣP 2 では困難であることが示されている。 0.68
However, for tree explanation graphs (which can represent explanations of decision trees), deciding explanation membership is shown to be in P. しかし、木説明グラフ(決定木の説明を表現できる)では、説明メンバーシップを決定することはPに含まれることが示される。 0.75
The paper is organized as follows. 論文は以下の通り整理される。 0.65
Section 2 introduces the definitions and notation used in the rest of the paper. 第2節では、論文の残りの部分で使われる定義と表記を紹介する。 0.62
Section 3 studies explanation graphs (XpG’s), and shows how XpG’s can be used for computing explanations. 第3節では、説明グラフ(XpG’s)について研究し、XpG’sがどのように計算説明に使えるかを示している。 0.65
Afterwards, Section 4 describes algorithms computing one XP (either AXp or CXp) of XpG’s, and a MARCO-like algorithm for the enumeration of XPs. その後、セクション4ではXpGの1つのXP(AXpまたはCXp)とXPの列挙のためのMARCOライクなアルゴリズムを記述する。 0.77
Section 4 also proves that for DTs, the set of all CXps can be computed in polynomial time. セクション4はまた、DT に対して、すべての CXps の集合は多項式時間で計算可能であることを証明している。 0.63
Some of the previous results are used in Section 5 for investigating the complexity of deciding membership of features in explanations. 以前の結果のいくつかは第5節で説明において特徴のメンバシップを決定する複雑さを調査するために使用されている。 0.59
Section 6 relates the paper’s contribu- 第6節は,論文の内容を関連づける 0.65
2The term decision graph is also used in the context of Bayesian Networks (Jensen 2001; Darwiche 2009), and more recently in explainability (Shih et al 2018; Shih et al 2019). 2 決定グラフはベイジアンネットワークの文脈(Jensen 2001; Darwiche 2009)にも使われ、最近では説明可能性(Shih et al 2018; Shih et al 2019)にも使われている。 0.82
However, and to the best of our knowledge, the term “decision graph” was first proposed in the early 90s (Oliver 1992) to enable more compact representation of DTs. しかし、私たちの知る限りでは、「決定グラフ」という用語は90年代初頭(1992年オリバー)にDTのよりコンパクトな表現を可能にするために初めて提案された。 0.63
tions with earlier work. 初期の作品に没頭する。 0.43
Section 7 discusses experimental results of explaining DTs and reduced ordered binary decision diagrams, including AXps, CXps and their enumeration. 第7節では、DTを説明する実験結果と、AXps、CXps、およびそれらの列挙を含む順序付き二分決定図の削減について論じている。
訳抜け防止モード: 第7節 実験結果について axps、cxpsおよびそれらの列挙を含むdtsの説明と順序付き二分決定ダイアグラムの縮小。
0.58
Finally, the paper concludes in Section 8. 最後に、論文は第8節で締めくくられる。 0.63
2 Preliminaries Classification problems. A classification problem is defined on a set of features (or attributes) F = {1, . 予科2 分類問題。 分類問題は、特徴(または属性)の集合 F = {1, で定義される。 0.65
. . , m} and a set of classes K = {c1, c2, . . . , m} およびクラス K = {c1, c2, の集合。 0.83
. . , cK}. Each feature i ∈ F takes values from a domain Di. . . 、cK。 各特徴 i ∈ f は整域 di から値を取る。 0.76
Domains can be boolean, integer or real-valued. ドメインはboolean、integer、real-valuedでもよい。 0.67
Feature space is defined as F = D1 × D2 × . 特徴空間は F = D1 × D2 × と定義される。 0.83
. . × Dm. . . ×dmであった。 0.75
The notation x = (x1, . 記法 x = (x1, )。 0.77
. . , xm) denotes an arbitrary point in feature space, where each xi is a variable taking values from Di. . . , xm) は特徴空間の任意の点を表し、各 xi は Di から値を取る変数である。 0.84
Moreover, the notation v = (v1, . さらに、表記 v = (v1, ) である。 0.75
. . , vm) represents a specific point in feature space, where each vi is a constant representing one concrete value from Di. . . vm) は特徴空間の特定の点を表し、各 vi は Di から 1 つの具体的な値を表す定数である。 0.81
An instance (or example) denotes a pair (v, c), where v ∈ F and c ∈ K. (We also use the term instance to refer to v, leaving c implicit.) 例(あるいは例)は対 (v, c) を意味し、ここで v ∈ F と c ∈ K が成り立つ。
訳抜け防止モード: 例 (または例 ) は対 (v,) を表す。 ここで v ∈ F と c ∈ K が成り立つ。 また、c を暗黙に残して v を指すためにインスタンスという用語も使用します。
0.87
An ML classifier C is characterized by a classification function κ that maps feature space F into the set of classes K, i.e. ML分類器Cは、特徴空間FをクラスKの集合にマッピングする分類関数κによって特徴づけられる。 0.86
κ : F → K. (κ is assumed to be non-constant.) κ : F → K. (κ は非定数であると仮定される)。 0.84
Remark on binarization. バイナリ化に関するコメント。 0.39
We underline the importance of not restricting feature domains to be boolean-valued. 機能ドメインをboolean-valuedに制限しないことの重要性を強調する。 0.70
Although binarization can be used to represent features that are categorical, integer or real-valued, it is also the case that, from the perspective of computing explanations, soundness demands that one must know whether binarization was applied and, if so, which resulting binary features must be related with which original features. バイナリ化は分類的、整数的、あるいは実数値的な特徴を表すのに使うことができるが、計算の説明の観点からは、健全性は、バイナリ化が適用されたか、もしそうであれば、バイナリ化がどの特徴と関連づけられなければならないかを知る必要がある。
訳抜け防止モード: 双項化は、カテゴリー、整数、または実値を持つ特徴を表現するのに使うことができる。 コンピュータの説明の観点から考えると 音質は二項化が適用されたかどうかを知る必要がある もしそうなら バイナリーの特徴は 本来の特徴と関係があるはずです
0.71
The key observation is that if binarization is used, then soundness of results imposes that features must be reasoned about in groups of related binary features, and this implies algorithms that work under this assumption. 重要な観察は、双対化が使われる場合、結果の健全性は、関連する二項特徴の群で特徴を推論しなければならないことを強制するものであり、これはこの仮定の下で機能するアルゴリズムを意味する。
訳抜け防止モード: 鍵となる観察は、二項化が用いられる場合、結果の健全性は関連する二項特徴群において特徴を推論しなければならないことを課すことである。 この仮定の下で動くアルゴリズムです
0.73
In this paper, we opt to impose no such restriction when reasoning about explanations. 本稿では,説明を推論する際には,そのような制限を課さないことを選択した。 0.57
Abductive and constrastive explanations. 帰納的かつ断続的な説明。 0.46
We now define formal explanations. 形式的な説明を定めます 0.57
Prime implicant (PI) explanations (Shih et al 2018) denote a minimal set of literals (relating a feature value xi and a constant vi ∈ Di that are sufficient for the prediction3. 素インプリカント (PI) の説明 (Shih et al 2018) は、(特徴値xiと、予測3に十分である定数 vi ∈ Di に関する)最小限のリテラルの集合を表す。 0.77
Formally, given v = (v1, . 形式的には v = (v1, ) である。 0.63
. . , vm) ∈ F with κ(v) = c, a PI-explanation (AXp) is any minimal subset X ⊆ F such that, . . κ(v) = c, a PI-explanation (AXp) を持つ , vm) ∈ F は任意の極小部分集合 X > F である。 0.85
∀(x ∈ F).h^i∈X s(x ∈ f),h^ihtmlx 0.55
(xi = vi)i →(κ(x) = c) (xi = vi)i →(κ(x) = c) 0.85
(1) AXps can be viewed as answering a ‘Why?’ question, i.e. (1) AXpsは‘なぜ? 0.53
why is some prediction made given some point in feature space. なぜ何かの予測が 特徴空間のどこかに 向けられているのか 0.60
A different view of explanations is a contrastive explanation (Miller 2019), which answers a ‘Why Not?’ question, i.e. 説明の異なる見方は対照的な説明である(Miller 2019)。
訳抜け防止モード: 説明の異なる見方は対照的な説明である(Miller 2019 )。 Why Not ?’ という質問に答える。
0.72
which features can be changed to change the prediction. 予測を変えるために 機能を変更することができます 0.76
A formal definition of contrastive explanation is proposed in recent work (Ignatiev et al 2020). 対照的な説明の正式な定義は、最近の研究(Ignatiev et al 2020)で提案されている。 0.66
Given 3PI-explanations are related with abduction, and so are also referred to as abductive explanations (AXp) (Ignatiev et al 2019a). 与えられた 3pi説明はアブダクションと関連しており、アブダクション説明 (axp) (ignatiev et al 2019a) とも呼ばれる。
訳抜け防止モード: 与えられた 3pi - 説明がアブダクションと関連している。 axp (abductive explanations) (ignatiev et al 2019a) とも呼ばれる。
0.55
More recently, PI-explanations have been studied from a knowledge compilation perspective (Audemard et al 2020). 近年では知識コンパイルの観点からPI説明が研究されている(Audemard et al 2020)。 0.73
英語(論文から抽出)日本語訳スコア
v = (v1, . v = (v1, )。 0.86
. . , vm) ∈ F with κ(v) = c, a CXp is any minimal subset Y ⊆ F such that, . . κ(v) = c であるような , vm) ∈ F に対し、CXp は任意の極小部分集合 Y > F である。 0.82
∈ {N} x3 1 ∈ {N} x3 1 0.83
∈ {Y} ∃(x ∈ F).^j∈F \Y ∈ {Y} x ∈ f),^jhtmlf \y である。 0.81
(xj = vj) ∧ (κ(x) 6= c) (xj = vj) ... (κ(x) 6= c) 0.90
(2) Building on the results of R. Reiter in model-based diagnosis (Reiter 1987), (Ignatiev et al 2020) proves a minimal hitting set (MHS) duality relation between AXps and CXps, i.e. (2) R. Reiter によるモデルベース診断の結果 (Reiter 1987, Ignatiev et al 2020) に基づいて、AXps と CXps の間の最小ヒットセット (MHS) の双対関係を証明している。 0.83
AXps are MHSes of CXps and vice-versa. AXps は CXps と vice-versa の MHS である。 0.74
Section 5 studies the explanation membership problem, 第5節 説明会員問題の研究 0.68
which we define as follows: 私たちは次のように定義します 0.62
Definition 1 (AXp/CXp Membership Problem). 定義1(AXp/CXpメンバーシップ問題)。 0.73
Given v ∈ F and i ∈ F , with κ(v) = c ∈ K, the AXp (resp. v ∈ F と i ∈ F が与えられたとき、κ(v) = c ∈ K は AXp (resp) である。 0.90
CXp) membership problem is to decide whether there exists an AXp (resp. CXp) 会員問題は、AXp (resp) が存在するかどうかを決定することである。 0.66
CXp) Z ⊆ F with i ∈ Z. CXp) Z は i ∈ Z の F である。 0.89
One can understand the importance of deciding explanation membership in settings where the number of explanations is very large, and we seek to understand whether some feature (given its assigned value) can be relevant for some prediction. 説明数が非常に多い設定で説明メンバーシップを決定することの重要性を理解することができ、ある機能(割り当てられた値)が何らかの予測に関連があるかどうかを理解したい。 0.79
Duality between explanations (Ignatiev et al 2020) yields the following result. 説明の双対性(ignatiev et al 2020)は以下の結果をもたらす。 0.79
Proposition 1. Given v ∈ F, there exists an AXp X ⊆ F with i ∈ X iff there exists a CXp Y ⊆ F with i ∈ Y. 命題1。 v ∈ F が与えられたとき、i ∈ X iff を持つ AXp X > F が存在し、i ∈ Y を持つ CXp Y > F が存在する。 0.68
Decision trees, diagrams and graphs. 決定木、図、グラフ。 0.62
A decision tree T is a directed acyclic graph having at most one path between every pair of nodes. 決定木 T は、各ノード間の少なくとも1つの経路を持つ有向非巡回グラフである。 0.76
T has a root node, characterized by having no incoming edges. T にはルートノードがあり、エッジが入らないのが特徴である。 0.69
All other nodes have one incoming edge. 他のノードはすべてひとつのエッジを持つ。 0.70
We consider univariate decision trees (as opposed to multivariate decision trees (Brodley and Utgoff 1995)), each non-terminal node is associated with a single feature xi. 多変量決定木 (Brodley と Utgoff 1995) とは対照的に、各非終端ノードは1つの特徴 xi に関連付けられている。 0.67
Each edge is labeled with a literal, relating a feature (associated with the edge’s starting node) with some values (or range of values) from the feature’s domain. 各エッジはリテラルでラベル付けされ、機能ドメインからいくつかの値(あるいは値の範囲)を持つ(エッジの開始ノードに関連する)機能に関連している。 0.78
We will consider literals to be of the form xi ✶ Ei, where ✶ ∈ {∈}. リテラルは xi {\displaystyle xi} の形式であると見なす。
訳抜け防止モード: 我々はリテラルを考える ここで xi は Ei の形式であり、ここで xi ∈ { ∈ } が成り立つ。
0.75
xi is a variable that denotes the value taken by feature i, whereas Ei ⊆ Di is a subset of the domain of feature i. xi は特徴 i によって取られる値を表す変数であり、Ei は特徴 i の領域の部分集合である。 0.68
The type of literals used to label the edges of a DT allows the representation of the DTs generated by a wide range of decision tree learners (e g (Utgoff et al 1997)). DTのエッジをラベル付けするために使われるリテラルの種類は、幅広い決定木学習者によって生成されるDTの表現を可能にする(例:Utgoff et al 1997)。 0.80
(The syntax of the literals could be enriched. (リテラルの構文を豊かにすることができる。 0.76
For example, we could use ✶ ∈ {∈, 6∈}, or for categorical features we could use ✶ ∈ {=, 6=}, in which case we would need to allow for multi-tree variants of DTs (Appuswamy et al 2011). 例えば、>6, 6, 6, 6} や > ∈ {=, 6=} の分類的特徴に対して、DT のマルチツリー変種を許容する必要がある(Appuswamy et al 2011)。
訳抜け防止モード: 例えば、s ∈ { ∈, 6∂ } を使うことができる。 あるいは、分類的特徴に対して、s ∈ { =, 6= } を使うことができる。 この場合、DTのマルチツリー変種を許可する必要があります(Appuswamy et al 2011 )。
0.77
However, these alternatives would not change the results in the paper. しかし、これらの代替案は論文の結果を変えなかった。 0.69
As formalized later, the literals associated with the outgoing edges are assumed to be mutually inconsistent. 後に形式化されたように、発端に付随するリテラルは相互に矛盾していると仮定される。 0.54
Finally, each terminal node is associated with a value from K. Throughout the paper, we will use the following example 最後に、各端末ノードはKからの値に関連付けられている。
訳抜け防止モード: 最後に、各端末ノードは、論文全体を通してkの値に関連付けられる。 以下の例を使って
0.76
of a DT as the first running example. 最初の実行例はDTです。 0.62
Example 1. For the DT in Figure 1, F = {1, 2, 3, 4}, denoting respectively Age (∈ {W, T, O}), Income (∈ {L, M, H}), Student (∈ {N, Y}) and Credit Rating (∈ {P, F, E}). 例1。 図 1 の dt に対して、f = {1, 2, 3, 4} は、それぞれ年齢 (friendfeed {w, t, o})、収入 (friendfeed {l, m, h})、学生 (friendfeed {n, y})、信用格付け (friendfeed {p, f, e}) を示す。
訳抜け防止モード: 例1。 図1のDTに対して、F = { 1, 2, 3, 4 } はそれぞれ年齢 ( ∈ { W, T, O } ) を示す。 income ( ∈ { L, M, H } ) 学生 ( ∈ { N, Y } ) と信用レーティング ( ∈ { P, F, E })。
0.74
The prediction is the type of hardware bought, with N denoting No Hardware, T denoting a Tablet and L denoting a Laptop. この予測は購入したハードウェアの種類であり、Nはハードウェアなし、Tはタブレット、Lはラップトップなしである。 0.71
For Age, W, T and O denote, respectively, Age < 30 (tWenties or younger), 30 ≤ Age < 40 (Thirties) and 40 ≤ Age 年齢については、w、t、oはそれぞれ30歳(20歳以下)、30 ≤年齢(40歳以下)、40 ≤年齢を表す。 0.74
x1 x4 ∈ {O} x1 x4 ∈ {O} 0.81
2 ∈ {W, T} 2 ∈ {W, T} 0.85
∈ {E} 3 ∈ {P, F} ∈ {E} 3 ∈ {P, F} 0.85
T 4 x2 ∈ {H} T4 x2 ∈ {H} 0.81
5 ∈ {L, M} 5 ∈ {L, M} 0.85
L 6 x1 ∈ {W, O} L6 x1 ∈ {W, O} 0.80
7 ∈ {T} x1 7 ∈ {T} x1 0.83
∈ {T} 8 ∈ {W} ∈ {T} 8 ∈ {W} 0.85
N 9 T 10 x2 ∈ {H} N9 T10 x2 ∈ {H} 0.79
11 ∈ {L, M} 11 ∈ {L, M} 0.85
L 12 N 13 T 14 L 12 N13 T14 0.80
L 15 Figure 1: Example DT, v = (O, L, Y, P) and κ(v) = T L15 図1: DT, v = (O, L, Y, P) と κ(v) = T の例 0.81
(forties or Older). For Income, L, M, H denote, respectively, (L)ow, (M)edium, and (H)igh. (40歳以上) 所得については、L、M、Hはそれぞれ(L)ow、(M)edium、(H)ighを示す。 0.52
For Student, N denotes not a student and Y denotes a student. 学生にとって、Nは学生ではなく、Yは学生を表す。 0.72
Finally, for Credit Rating, P, F and E denote, respectively, (P)oor, (F)air and (E)xcellent. 最後に、クレジットレーティングでは、P、F、Eはそれぞれ(P)oor、(F)air、(E)xcellentを示す。 0.68
For the instance v = (O, L, Y, P), with prediction T (i.e. 例 v = (O, L, Y, P) に対して、予測は T である。 0.72
Tablet), the consistent path is shown highlighted. タブレット) 一貫性のあるパスが強調表示されます。 0.57
The paper also considers reduced ordered binary decision diagrams (OBDDs) (Bryant 1986; Wegener 2000; Darwiche and Marquis 2002), as well as their multi-valued variant, i.e. この論文はまた、順序付き二項決定図(OBDDs)の縮小(Bryant 1986; Wegener 2000; Darwiche and Marquis 2002)や、その多値変種である。 0.70
reduced ordered multi-valued decision diagrams (OMDDs) (Srinivasan et al 1990; Kam and Brayton 1990; Bergman et al 2016). reduced order multi-valued decision diagram (omdds) (srinivasan et al 1990; kam and brayton 1990; bergman et al 2016)。 0.75
(We will also briefly mention connections with deterministic branching programs (DBPs) (Wegener 2000).) (また、決定論的分岐プログラム(DBP)との関係についても簡潔に述べる(Wegener 2000)。 0.78
For OBDDs, features must be boolean, and so each edge is labeled with either 0 or 1 (we could instead use ∈ {0} and ∈ {1}, respectively). OBDD の場合、特徴はブール値でなければならないので、各エッジには 0 と 1 のラベルが付けられている(それぞれ ∈ {0} と ∈ {1} を使うことができる)。 0.78
In contrast with DTs, features in OBDDs must also be ordered. DTとは対照的に、OBDDの機能も順序付けする必要がある。 0.57
For OMDDs, features takes discrete values, and are also ordered. OMDDの場合、機能は離散値を受け取り、順序付けされる。 0.63
In this case, we label edges the same way we label edges in DTs, i.e. この場合、エッジはDTでエッジをラベルするのと同じようにラベル付けします。 0.78
using set membership (and non-membership). メンバーシップ(および非メンバーシップ)を使用する。 0.67
(For simplicity, if all edges have a single option, we just label the edge with the value.) (シンプルに言えば、すべてのエッジにひとつのオプションがある場合、エッジに値をラベル付けするだけです。) 0.75
Moreover, we will use the following example of an OMDD as the paper’s second running example. さらに、OMDDの次の例を、論文の第2の実行例として使用します。 0.75
Example 2. For the OMDD in Figure 2, F = {1, 2, 3}, with D1 = D2 = {0, 1}, D3 = {0, 1, 2}. 例2。 図2の OMDD に対して、F = {1, 2, 3} は D1 = D2 = {0, 1}, D3 = {0, 1, 2} である。 0.81
The prediction is one of three classes K = {R, G, B}. この予想は、3つのクラス K = {R, G, B} のうちの1つである。 0.68
For the instance v = (0, 1, 2), with prediction R, the consistent path is shown highlighted. 予測 r の例 v = (0, 1, 2) では、一貫性のある経路が強調表示される。 0.70
years, trees, e g proposed 何年も 木? EG 提案 0.50
different works the the Over some sort of decision diagrams as an aluse of decision (Bahl et al 1989; ternative to Oliver 1992; Oliveira and Sangiovanni-Vincente lli 1996; Mues et al 2004; Cabodi et al 2021). 異なる作品 The Over the Over of decision diagrams as a aluse of decision (Bahl et al 1989; ternative to Oliver 1992; Oliveira and Sangiovanni-Vincente lli 1996; Mues et al 2004; Cabodi et al 2021)。 0.77
This paper considers decision graphs (Oliver 1992), which can be viewed as a generalization of DTs, OBDDs, OMDDs, etc. 本稿では、DT、OBDD、OMDDなどの一般化とみなすことができる意思決定グラフ(Oliver 1992)について考察する。 0.78
Definition 2 (Decision Graph (DG)). 定義2(決定グラフ(dg))。 0.63
A DG G is a 4-tuple G = (G, ς, φ, λ) where, 1. DG G は 4-タプル G = (G, ς, φ, λ) である。 0.76
G = (V, E) is a Directed Acyclic Graph (DAG) with a G = (V, E) は a を持つ有向非巡回グラフ(DAG)である。 0.85
single source (or root) node. 単一ソース(またはルート)ノード。 0.77
英語(論文から抽出)日本語訳スコア
0 x2 0 1 x1 0 x2 0 1 x1 0.82
1 0 1 0 2 4 1 0 1 0 2 4 0.85
1 x3 2 0 R 1 x3 2 0 R 0.84
6 G 7 x2 1 6 G 7 x2 1 0.84
x1 1 3 5 B x1 1 3 5 B 0.84
8 Figure 2: Example OMDD, v = (0, 1, 2) and κ(v) = R 8 図2: OMDD, v = (0, 1, 2) と κ(v) = R の例 0.84
2. V is partitioned into terminal (T ) and non-terminal (N ) nodes. 2. Vは端末(T)と非端末(N)ノードに分割される。 0.85
For every p ∈ N , deg+(p) > 0. すべての p ∈ N に対して、deg+(p) > 0 である。 0.75
For every q ∈ T , deg+(q) = 0. すべての q ∈ T に対して、deg+(q) = 0 である。 0.78
(deg+ denotes the outdegree of a node). (deg+はノードの外度を表す) 0.78
3. ς : T → K maps each terminal node into a class. 3. σ : t → k 各終端ノードをクラスにマップする。 0.80
4. φ : N → F maps each non-terminal node into a feature. 4. φ : N → F は各非終端ノードを特徴に写す。 0.88
5. λ : E → L, where L denotes the set of all literals of the form xi ∈ Ei for Ei ⊆ Di, where i is the feature associated with the edge’s starting node. 5. λ : E → L, ここで L は xi ∈ Ei という形式のすべてのリテラルの集合を表し、i は辺の開始ノードに関連する特徴である。 0.74
Furthermore, the following assumptions are made with respect to DGs4 (where for node r ∈ N , with φ(r) = i, Ci denotes the set of values of feature i which are consistent with any path connecting the root to r): i. さらに、以下の仮定は DGs4 に対して成立する(ノード r ∈ N に対して φ(r) = i, Ci は根を r に接続する任意の経路と一致する特徴 i の値の集合を表す)。 0.75
The literals associated with the outgoing edges of each 各行のエッジに関連するリテラル 0.52
node r ∈ N represent a partition of Ci. ノード r ∈ N は Ci の分割を表す。 0.79
ii. Every path Rk of DG, that connects the root node to a 私は... ルートノードをaに接続するDGのすべてのパスRk 0.50
terminal node, is not inconsistent. 終端ノードは一貫性がない。 0.69
It is straightforward to conclude that any classifier defined on DTs, OBDDs or OMDDs can be represented as a DG. DT、OBDD、OMDDで定義された任意の分類器はDGとして表現できると結論付けるのは簡単である。 0.62
(The same claim can also be made for DBPs.) (dbpsについても同じ主張ができる) 0.36
Also, whereas OBDDs and OMDDs are read-once (i.e. また、OBDDやOMDDはリードオンス(すなわち)である。 0.71
each feature is tested at most once along a path), DTs (and general DGs) need not be read-once. 各機能はパスに沿って一度だけテストされますが、DT(および一般的なDG)は読み取りオンスする必要はありません。 0.69
Hence, DGs impose no restriction on the number of times a feature is tested along a path, as long as the literals are consistent. したがって、DGはリテラルが一貫性がある限り、ある機能がパスに沿ってテストされる回数に制限を課さない。 0.67
Moreover, the definition of DG (and the associated assumptions) ensures that, さらに、DG(および関連する仮定)の定義はそれを保証している。 0.75
Proposition 2. For any v ∈ F there exists exactly one terminal node which is connected to the root node of the DG by path(s) such that each edge in such path(s) is consistent with the feature values given by v. 命題2。 任意の v ∈ F に対して、経路(s) によって DG の根ノードに接続されるちょうど1つの終点ノードが存在し、そのような経路(s) の各辺は v によって与えられる特徴値と一致する。 0.65
Proposition 3. For any terminal node q of a DG, there exists at least one point v ∈ F such there is a consistent path from the root to q. 命題3。 DG の任意の終点 q に対して、少なくとも一つの点 v ∈ F が存在して、根から q への一貫した経路が存在する。 0.63
4The importance of these assumptions must be highlighted. 4 これらの仮定の重要性を強調する必要がある。 0.57
Whereas for OBDDs/OMDDs these assumptions are guaranteed by construction, this is not the case with DTs nor in general with DGs. OBDD/OMDDでは、これらの仮定は構築によって保証されるが、DTやDGではそうではない。 0.68
In the literature, one can find examples of decision trees with inconsistent paths (e g (Valdes et al 2016, Fig 4)) but also decision trees exhibiting dead-ends, i.e. 文献では、一貫性のない経路を持つ決定木(valdes et al 2016 図 4)の例だけでなく、デッドエンドを示す決定木(decision tree)の例を見つけることができる。 0.72
DTs for which the classification function is not total (e g (Duda et al 2001, Fig 8.1)). 分類関数が完全でないDT(Duda et al 2001, Fig 8.1)。 0.60
3 Explanation Graphs A difficulty with reasoning about explanations for DTs, DGs or OBDDs, but also for their multi-valued variants (and also in the case of other examples of ML models), is the multitude of cases that one needs to consider. 3つの説明グラフ DT、DG、あるいはOBDDの説明を推論することの難しさに加えて、多価値なバリエーション(および他のMLモデルの例の場合)についても、考慮すべきケースが数多くあります。 0.70
For the concrete case of OBDDs, features are restricted to be boolean. OBDDの具体的なケースでは、機能はブール値に制限されます。 0.59
However, for DTs and DGs, features can be boolean, categorical, integer or real. しかし、DTやDGでは、機能はブール、分類、整数、あるいは実数である。 0.71
Moreover, for OMDDs, features can be boolean, categorical or integer. さらに、OMDDでは、機能はブール、分類、整数でもよい。 0.68
Also, it is often the case that |K| > 2. また、しばしば |K| > 2 である。 0.68
Explanation graphs are a graph representation that abstracts away all the details that are effectively unnecessary for computing AXps or CXps. 説明グラフは、AXpsやCXpsの計算に実質的に不要なすべての詳細を抽象化するグラフ表現である。 0.82
In turn, this facilitates the construction of unified explanation procedures. これにより、統一的な説明手順の構築が容易になる。 0.64
Definition 3 (Explanation Graph (XpG)). 定義3(説明グラフ)(XpG)。 0.74
An XpG is a 5tuple D = (GD, S, υ, αV , αE), where: 1. XpG は 5tuple D = (GD, S, s, αV , αE) である。 0.75
GD = (VD, ED) is a labeled DAG, such that: GD = (VD, ED) は DAG のラベルで、 0.63
• VD = TD ∪ ND is the set of nodes, partitioned into the terminal nodes TD (with deg+(q) = 0, q ∈ TD) and the non-terminal nodes ND (with deg+(p) > 0, p ∈ ND); • VD = TD > ND は終点ノード TD (deg+(q) = 0, q ∈ TD) と非終点ノード ND (deg+(p) > 0, p ∈ ND) に分割されたノードの集合である。 0.82
• ED ⊆ VD × VD is the set of (directed) edges. VD × VD は (directed) edge の集合である。 0.60
• GD is such that there is a single node with indegree • GD は indegree の 1 つのノードが存在するようなものである 0.74
equal to 0, i.e. 0に等しく、i.e. 0.72
the root (or source) node. root (複数形 roots) 0.40
2. S = {s1, . 2. S = {s1, 。 0.87
. . , sm} is a set of variables; 3. υ : ND → S is a total function mapping each non- . . sm {\displaystyle sm} は変数の集合であり、 sm {\displaystyle sm} は変数の集合である。
訳抜け防止モード: . . ,sm } は変数の集合 ; 3 . sm : である。 nd → s は各非-- を写像する全関数である。
0.79
terminal node to one variable in S. S の 1 変数への端末ノード。 0.76
4. αV : VD → {0, 1} labels nodes with one of two values. 4. αv : vd → {0, 1} 2つの値の1つのノードをラベルする。 0.76
(αV is required to be defined only for terminal nodes.) (αVは終端ノードのみに定義する必要がある。) 0.78
5. αE : ED → {0, 1} labels edges with one of two values. 5. αE : ED → {0, 1} は2つの値のうちの1つを示す。 0.69
In addition, an XpG D must respect the following properties: i. さらに、XpG D は以下の性質を尊重しなければならない。 0.79
For each non-terminal node, there is at most one outgoing 各非終端ノードに対して、少なくとも1つの出口がある 0.64
edge labeled 1; all other outgoing edges are labeled 0. エッジラベルは 1 で、他のすべてのエッジは 0 とラベル付けされる。 0.60
ii. There is exactly one terminal node t ∈ T labeled 1 that can be reached from the root node with (at least) one path of edges labeled 1. 私は... ちょうど1つの終点 t ∈ T ラベル付き 1 が存在し、ルートノードから (少なくとも) 1 ラベル付きエッジの1つの経路に到達することができる。 0.50
We refer to a tree XpG when the DAG associated with the XpG is a tree. XpG に関連する DAG が木であるとき、木 XpG を参照する。 0.67
Given a DG G and an instance (v, c), the (unique) mapping to an XpG is obtained as follows: 1. DG G とインスタンス (v, c) が与えられたとき、XpG への(一意)写像は次のようになる。 0.68
The same DAG is used. 同じDAGが使用されている。 0.64
2. Terminal nodes labeled c in G are labeled 1 in D. Terminal 2. G で c とラベル付けされた端末ノードは D. Terminal で 1 とラベル付けされる 0.70
nodes labeled c′ 6= c in G are labeled 0 in D. g で c′ 6= c とラベル付けされたノードは d で 0 とラベル付けされる。 0.56
3. A non-terminal node associated with feature i in G is as- 3. g の機能 i に付随する非終端ノードは as- 0.85
sociated with si in D. Dでsiと結合する。 0.62
4. Any edge labeled with a literal that is consistent with v in G is labeled 1 in D. Any edge labeled with a literal that is not consistent with v in G is labeled 0 in D. 4. G において v と一致するリテラルでラベル付けられたエッジは D において 1 とラベル付けられ、G において v と一致しないリテラルでラベル付けられたエッジは D において 0 とラベル付けられている。 0.76
Since we can represent DTs, OBDDs or OMDDs with DGs, then the construction above ensures that we can also create XpG’s for any of these classifiers. DT、OBDD、OMDDをDGで表現できるので、上記の構成により、これらの分類器のどれでもXpGを作成できます。 0.65
The following examples illustrate the construction of 以下の例で示されるのは 0.71
XpG’s for the paper’s two running examples. XpGは、この論文の2つの実例だ。 0.61
Example 3. For the DT of Example 1 (shown in Figure 1, given the instance (v = (O, L, Y, P), T), and letting S = (s1, s2, s3, s4), with each si associated with feature i, the resulting XpG is shown in Figure 3. 例3。 例 1 の DT (図 1 に記す) に対して、S = (s1, s2, s3, s4) を特徴 i に関連付けられた各si を例 (v = (O, L, Y, P, T) とし、その結果の XpG を図 3 に示す。 0.78
Example 4. For the OMDD of Example 2 (shown in Figure 2), given the instance ((0, 1, 2), R), and letting 例4。 例 2 の OMDD について(図 2 に示す)、インスタンス ((0, 1, 2), R) を与えられた後、 0.74
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
Example 8. With respect to Example 6, we can observe that s2 is not used for defining σD. 例8。 例6に関して、s2 は σd の定義に使われていないことが分かる。 0.70
Hence, it can be set to 0. したがって、それは 0 に設定できる。 0.81
Also, as long as s1 = 1, the prediction will remain unchanged. また、s1 = 1 である限り、予測は変わらない。 0.68
Thus, we can also set s3 to 0. したがって、s3 を 0 に設定することもできる。 0.72
As a result, one AXp is {1}. その結果、1つの AXp が {1} となる。 0.86
With respect to the original instance ((x1, x2, x3), c) = ((0, 1, 2), R), selecting {1} indicates that x1 = 0 suffices for the prediction of R. 元の例 ((x1, x2, x3), c) = ((0, 1, 2), R) に関して、 {1} を選択すると、x1 = 0 は R の予想に十分である。 0.87
As suggested by the previous discussion and examples, 前回の議論や例で示唆されたように 0.70
we have the following result. 以下の結果が得られます 0.69
Proposition 5. There is a one-to-one mapping between AXps and CXps of σD and the AXps and CXps of the original classification problem (and instance) from which the XpG D is obtained. 命題5。 σD の AXps と CXps と、XpG D が得られる元の分類問題(および例)の AXps と CXps との間に1対1の写像が存在する。 0.68
Proof. [Sketch] The construction of the XpG from a DG ensures that for any node in the XpG, if ε(s, r) = 1, then there exists some assignment to the features corresponding to unset variables, such that there is one consistent path in the DG from the root to r. Thus, if for some pick of unset variables, we have that ε(s, q) = 1, for some q ∈ TD with αV (q) = 0, then that guarantees that in the DG there is an assignment to the features associated with the unset variables, such that a prediction other than c is obtained. 証明。 [Sketch] The construction of the XpG from a DG ensures that for any node in the XpG, if ε(s, r) = 1, then there exists some assignment to the features corresponding to unset variables, such that there is one consistent path in the DG from the root to r. Thus, if for some pick of unset variables, we have that ε(s, q) = 1, for some q ∈ TD with αV (q) = 0, then that guarantees that in the DG there is an assignment to the features associated with the unset variables, such that a prediction other than c is obtained. 0.74
✷ Q ← init(root(GD)) while not empty(Q) do ✷ Q > init(root(GD)) while not empty(Q) do 0.80
Algorithm 1 Check existence of path to 0-labeled terminal input: XpG: D = (GD, S, υ, αV , αE); Ref set: R ⊆ S 1: procedure pathToZero(D, R) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: アルゴリズム1 ゼロラベル端末入力へのパスの存在を確認する: XpG: D = (GD, S, シュ, αV , αE); Ref set: R ? S 1: procedure pathToZero(D, R) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 0.84
si ← υ(p) for all q ∈ children(GD, p) do すべての q ∈ の子供 (GD, p) に対して si は (p) である。 0.80
(Q, p) ← dequeue(Q) if isTerminal(GD, p) then (q, p) ] dequeue(q) if isterminal(gd, p) then 0.73
if si ∈ R or αE(p, q) = 1 then si ∈ R または αE(p, q) = 1 であれば 0.94
if αV (p) = 0 then αv (p) = 0 ならば 0.87
Q ← enqueue(Q, q) Q > enqueue(Q, q) 0.74
return true else 13: 真を返せ その他 13: 0.70
return false Algorithm 2 Extraction of one AXp given seed A input: XpG: D = (GD, S, υ, αV , αE); Seed set: A ⊆ S 1: procedure findAXp(D, A) 2: 3: 4: 偽りを返す アルゴリズム2 シードA入力の1つのAXpを抽出する: XpG: D = (GD, S, シュ, αV , αE); シードセット: A > S 1: procedure findAXp(D, A) 2: 3: 4 0.71
if not pathToZero(D, S \ (A \ {si})) then pathtozero(d, s \ (a \ {si}) でないなら、 0.64
for all si ∈ A do // Inv. すべての si ∈ A do // Inv に対して。 0.76
: not pathToZero(D, S\A) : pathToZero(D, S\A)ではなく 0.77
A ← A \ {si} A > A \ {si} 0.72
4 Computing Explanations 4 コンピューティングの解説 0.82
5: return A 5: return A 0.85
(Goldsmith et al 2005; (Goldsmith et al 2005) 0.71
is well-known that prime 素数はよく知られている 0.38
implicants of monoIt time tone functions can be computed in polynomial (e g Goldsmith et al 2008)). モノイットの時間音関数の含意は多項式で計算できる(例 Goldsmith et al 2008)。 0.72
Moreover, whereas there are algorithms for finding one PI of a monotone function in polynomial time, there is evidence that enumeration of PIs cannot be achieved with polynomial delay (Gurvich and Khachiyan 1999). さらに、多項式時間で単調関数のpiを1つ見つけるアルゴリズムが存在するのに対して、piの列挙は多項式遅延で達成できないという証拠がある(gurvich と khachiyan 1999)。 0.79
Nevertheless, and given the fact それにもかかわらず 事実を考えると 0.61
that σD is defined on a DAG, this paper proposes dedicated algorithms for computing one AXp and one CXp which build on iterative graph traversals. σD は DAG 上で定義されるが,本論文では,反復グラフトラバーサルに基づく 1 つの AXp と 1 つの CXp を計算するための専用アルゴリズムを提案する。 0.62
Furthermore, the MARCO algorithm (Liffiton et al 2016) is adapted to exploit the algorithms for computing one AXp and one CXp, in the process ensuring that AXps/CXps can be enumerated with exactly one SAT oracle call per each computed explanation. さらに、MARCOアルゴリズム(Liffiton et al 2016)は、1つのAXpと1つのCXpの計算アルゴリズムを利用するように適応されており、AXps/CXpsは計算された説明ごとに正確に1つのSATオラクルコールで列挙できる。 0.76
4.1 Finding One XP 4.1 xp を見つける 0.71
Different polynomial-time algorithms can be envisioned for finding one prime implicant of an XpG (and also of a monotone function). 異なる多項式時間アルゴリズムは、XpG(および単調関数)の1つの素命令を見つけるために想定できる。 0.68
the concrete case of σD, we consider the well-known deletionbased algorithm (Chinneck and Dravnieks 1991), which iteratively removes and checks the value of σD using the DAG representation. σDの具体的な場合、よく知られた削除に基づくアルゴリズム(Chinneck and Dravnieks 1991)を考える。
訳抜け防止モード: σD の具体的な場合、よく知られた削除に基づくアルゴリズムを考える(Cenneck and Dravnieks 1991 )。 DAG表現を使用してσDの値を反復的に削除し、チェックする。
0.63
(It is also plain that we could consider instead the algorithms QuickXplain (Junker 2004) or Progression (Marques-Silva et al 2013), or any other algorithm for finding a minimal set subject to a monotone predicate (Marques-Silva et al 2017).) (また、QuickXplain (Junker 2004) や Progression (Marques-Silva et al 2013) などのアルゴリズムや、単調述語を対象とする最小セットを見つけるアルゴリズム(Marques-Silva et al 2017)も検討できる。) 0.69
from the implicant, 意味の無いところから 0.36
literals For As highlighted in the running examples, if σD(u) = 1, for some u ∈ S, then in the original classifier this means the prediction remains unchanged. リテラル のために 実行中の例で強調されるように、ある u ∈ s に対して σd(u) = 1 であれば、元の分類器では予測は変わらない。 0.57
The only way we have to change the prediction is to allow some features to take 予測を変える唯一の方法は、いくつかの機能を実現することです。 0.78
some other value from their domain. ドメインから他の価値を得る。 0.67
As a result, we equate si = 1 with declaring the original feature as set (or as fixed), whereas we equate si = 0 with declaring the original feature as unset (or as free). その結果、元の特徴を集合として(あるいは固定として)宣言する si = 1 と、元の特徴を非集合として(あるいは自由として)宣言する si = 0 とを等式化する。 0.68
By changing some of the S variables from 1 to 0, we are allowing some of the features to take one value from their domains. S変数のいくつかを 1 から 0 に変更することで、いくつかの機能がそれぞれのドメインからひとつの値を取ることを可能にする。
訳抜け防止モード: S変数のいくつかを 1 から 0 に変更することで、 機能のいくつかは ドメインから1つの価値を引き出すことができます
0.80
If we manage to change the value of the evaluation function to 0, this means that in the original classifier there exists a pick of values to the unset features which allows the prediction to change to some class other than c. As a result, the algorithms proposed in this section are solely based on finding a subset maximal set of features declared free (respectively, fixed), which is sufficient for the prediction not to change (respectively, to change). 評価関数の値を0に変更できた場合、元の分類器では、c以外のクラスに予測を変更することができる未設定の機能に値の選択が存在することを意味する。
訳抜け防止モード: 評価関数の値を 0 に変化させると これは、元の分類器では未設定の機能に値の選択があり、結果としてc以外のクラスに予測を変更することができることを意味する。 この節で提案されているアルゴリズムは、自由(それぞれ固定)と宣言された特徴のサブセットの極大集合を見つけることのみに基づいている。 これは、予測が変化しない(それぞれ変更する)のに十分です。
0.81
To enable the integration of the algorithms, the basic algorithms for finding one XP are organized such that one XP is computed given a starting seed. アルゴリズムの統合を可能にするため、1つのXPを見つけるための基本アルゴリズムは、開始シードから1つのXPを計算するように構成される。 0.72
Checking path to node with label 0. ラベル0のノードへのチェックパス。 0.70
All algorithms are based on graph traversals, which check whether a prediction of 0 can be reached given a set of value picks for the variables in S. This graph traversal algorithm is simple to envision, and is shown in Algorithm 1. すべてのアルゴリズムはグラフトラバーサルに基づいており、Sの変数に対する値の選択セットが与えられたとき、0の予測に到達できるかどうかをチェックする。
訳抜け防止モード: すべてのアルゴリズムはグラフトラバーサルに基づいており、S の変数に対する値の選択セットが与えられたとき、0 の予測に到達できるかどうかをチェックする。 アルゴリズム1で示されています。
0.70
As can be observed, the algorithm returns 1 if a terminal labeled 0 can be reached. 観測できるように、ラベル付き端末0が到達すればアルゴリズムは1を返す。 0.69
Otherwise, it returns 0. でないと 0 を返す。 0.77
Variables in set R serve to ignore the values of outgoing edges of a node if the variable is in R. The algorithm has a linear run time on the XpG’s size. 集合 R の変数は、変数が R にある場合、ノードの外部エッジの値を無視します。
訳抜け防止モード: 集合 R の変数は、もしノードの外部エッジの値を無視するのに役立ちます。 このアルゴリズムは、XpGのサイズに対して線形実行時間を持つ。
0.70
Extraction of one AXp and one CXp given seed. 1つのAXpと1つのCXpの抽出。 0.66
Given a seed set A ⊆ S of set variables, and so a set C = S \ A of unset variables (which are guaranteed to be kept unset), Algorithm 2 drops variables from A (i.e. 集合変数のシード集合 A > S が与えられ、したがって未セット変数の集合 C = S \ A が与えられたとき、アルゴリズム2 は変数を A (すなわち) から外す。 0.66
makes variables unset, and so allows the original features to take one 変数をアンセットするので、元の機能を選択できます 0.63
英語(論文から抽出)日本語訳スコア
Algorithm 3 Extraction of one CXp given seed C input: XpG: D = (GD, S, υ, αV , αE); Seed set: C ⊆ S 1: procedure findCXp(D, C) 2: 3: 4: アルゴリズム3 シードC入力の1つのCXpを抽出する: XpG: D = (GD, S, シュ, αV , αE); シードセット: C > S 1: procedure findCXp(D, C) 2: 3: 4 0.83
if pathToZero(D, C \ {si}) then pathtozero(d, c \ {si}) ならば 0.68
for all si ∈ C do すべてのsi ∈ c に対して 0.79
C ← C \ {si} C (複数形 Cs) 0.45
// Inv. : pathToZero(D, C) 略称はInv。 : pathToZero(D, C) 0.64
5: return C 5: return C 0.85
// H defined on set S H を集合 S 上で定義する。 0.58
H ← ∅ repeat 訳語 繰り返す;繰り返す 0.50
(outc, r) ← SAT(H) if outc = true then (outc, r) > SAT(H) if outc = true ならば 0.82
Algorithm 4 Enumeration of AXps and CXps input: XpG: D = (GD, S, υ, αV , αE) 1: procedure Enumerate(D) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 12: 13: 14: 15: アルゴリズム 4 AXps および CXps 入力の列挙: XpG: D = (GD, S, s, αV , αE) 1: procedure Enumerate(D) 2: 3: 4: 5: 6: 7: 8: 9: 10: 11: 13: 14: 15: 0.82
A ← {si ∈ S | ri = 1} C ← {si ∈ S | ri = 0} if not pathToZero(D, C) then もしpathToZero(D, C) でなければ、A は {si ∈ S | ri = 1} C は {si ∈ S | ri = 0} である。 0.82
X ← findAXp(D, A) reportAXp(X) H ← H ∪ {(∨si∈X ¬si)} X > findAXp(D, A) reportAXp(X) H > H > {(...) 0.66
X ← findCXp(D, C) reportCXp(X) H ← H ∪ {(∨si∈X si)} X > findCXp(D, C) reportCXp(X) H > H > {(シュシアルX si)} 0.74
else 16: until outc = false その他 16: outc = false になるまで 0.73
of the values in their domains). それぞれの領域の値について)。 0.54
Since σD is monotone, the deletion-based algorithm is guaranteed to find a subsetminimal set of fixed variables such that the XpG evaluates to 1. σD は単調であるため、削除に基づくアルゴリズムは XpG が 1 と評価されるような固定変数の部分最小集合を見つけることが保証される。 0.73
Similarly, given a seed set C ⊆ S of unset variables, and so a set A = S \ C of set variables (which are guaranteed to be kept set), Algorithm 3 drops variables from C (i.e. 同様に、未セット変数の種集合 C > S が与えられたとき、集合変数の集合 A = S \ C が(保たれることが保証されている)、アルゴリズム3 は C から変数をドロップする(つまり)。 0.80
makes variables set, and so forces the original features to take the value specified by the instance). 変数をセットするので、元の機能をインスタンスによって指定された値に強制する)。 0.72
4.2 Enumeration of Explanations As indicated earlier in this section, we use a MARCOlike (Liffiton et al 2016) algorithm for enumerating XPs of an XpG (see Algorithm 4). 4.2説明の列挙 この節で述べたように、XpGのXPを列挙するためにMARCOlikeアルゴリズム(Liffiton et al 2016)を用いる(アルゴリズム4参照)。 0.74
(An in-depth analysis of MARCO is included in earlier work (Liffiton et al 2016).) (初期の作品(Liffiton et al 2016)にはMARCOの詳細な分析が含まれている。) 0.77
Algorithm 4 exploits hitting set duality between AXps and CXps (Ignatiev et al 2020), and represents the sets to hit (resp. アルゴリズム4は、AXpsとCXps(Ignatiev et al 2020)のセット双対性を利用して、ヒットするセット(resp)を表す。 0.75
block) as a set of positive (resp. ブロック) 正の(resp) のセットとして。 0.64
negative) clauses H, defined on a set of variables S. The algorithm iteratively calls a SAT oracle on H while the formula is satisfiable. アルゴリズムはH 上のSATオラクルを反復的に呼び出すが、公式は満足できる。
訳抜け防止モード: 負の ) 節 h は変数の集合 s 上で定義される。 a sat oracle on h (英語) 公式は満足できるが
0.63
Given a model, which splits S into variables assigned value 1 (i.e. s を 1 に割り当てられた変数(すなわち)に分割するモデルが与えられた。 0.67
set) and variables assigned value 0 (i.e. set) と変数割り当て値 0 (すなわち、値)。 0.82
unset), we check if the model enables the prediction to change (i.e. モデルによって予測が変更可能かどうか(すなわち)を確認する。 0.75
we check the existence of a path to a terminal node labeled 0, with C as the reference set). 我々は、cを基準セットとして、0とラベルされた終端ノードへのパスの存在をチェックする。 0.68
If no such path exists, then we extract one AXp, using A as the seed. そのような経路が存在しない場合、Aを種として1つのAXpを抽出する。 0.65
Otherwise, we extract one CXp, using C as the seed. さもなければ、Cを種として1つのCXpを抽出する。 0.63
The resulting XP is then used to block future assignments to the variables in S from repeating XPs. 結果の XP は、S の変数に対する将来の割り当てを XP の繰り返しからブロックするために使われる。 0.77
4.3 Enumerating CXps for DTs The purpose of this section is to show that, if the XpG is a tree (e g in the case of a DT), then the number of CXps is polynomial on the size of the XpG. 4.3 DT の CXps を列挙する この節の目的は、XpG が木(例えば DT の場合)であれば、CXps の数は XpG の大きさの多項式であることを示すことである。 0.79
Furthermore, it is shown that the set of all CXps can be computed in polynomial time. さらに、すべてのCXpsの集合を多項式時間で計算できることが示されている。 0.76
This result has a number of consequences, some of which are discussed in Section 5. この結果には多くの結果があり、そのうちのいくつかは第5節で議論されている。 0.54
For the concrete case of enumeration of XPs of tree XpG’s, since we can enumerate all CXps in polynomial time, then we can exploit the well-known results of Fredman&Khachiyan (Fredman and Khachiyan 1996) to prove that enumeration of AXps can be obtained in quasi-polynomial The key observation is that, since we can enumerate all the CXps in polynomial time, then we can construct thus of Fredman&Khachiyan’s respecting algorithms (Fredman and Khachiyan 1996; Khachiyan et al 2006). 木 XpG の XP の列挙の具体的な場合、すべての CXps を多項式時間で列挙できるので、Fredman&Khachiyan (Fredman and Khachiyan 1996) のよく知られた結果を利用して、AXps の列挙が準多項式時間で得られることを証明できる。
訳抜け防止モード: 具体的には、木 xpg の xps の列挙の場合である。 すべての cxp を多項式時間で列挙できるので、fredman&khachiyan (fredman and khachiyan 1996) の既知の結果を利用して証明することができる。 axpsの列挙は、準多項式のキー観測で得られる それって... すべての cxp を多項式時間で列挙できる。 次に、fredman&khachiyanの尊敬アルゴリズム(fredman and khachiyan 1996; khachiyan et al 2006)を構築できる。
0.66
the associated hypergraph, 関連するハイパーグラフ。 0.58
conditions time. the 条件 時間だ はあ? 0.60
Proposition 6. For a tree XpG, the number of CXps is polynomial on the size of the XpG, and can be enumerated in polynomial time. 第6話。 木 XpG に対して、CXps の数は XpG の大きさの多項式であり、多項式時間で列挙できる。 0.55
Proof. To change the prediction, we must make a path to a prediction c′ ∈ K \ {c} consistent. 証明。 予測を変更するためには、予測 c′ ∈ K \ {c} に一貫した経路を作る必要がある。 0.68
In a tree, the number of paths (connecting the root to a terminal) associated with a prediction in c′ ∈ K \ {c} is linear on the size of the tree. 木において、c′ ∈ K \ {c} の予測に付随する経路(根を終点に接続する)の数は、木の大きさで線型である。 0.69
Observe that each path yielding a prediction other that c contributes at most one CXp, because the consistency of the path (in order to predict a class other than c) requires that all the inconsistent literals be allowed to take some consistent value. なぜなら、(c以外のクラスを予測するために)経路の整合性は、すべての一貫性のないリテラルに何らかの一貫性のある値を取ることを許す必要があるからである。
訳抜け防止モード: それぞれの経路が c が少なくとも 1 つの CXp に寄与する他の予測をもたらすことを観測する。 経路の整合性は (c以外のクラスを予測するため) すべての一貫性のないリテラルが一貫性のある値を取ることを許可する必要がある。
0.70
We can thus conclude that the number of CXps is linear on the size of a tree XpG. したがって、木 XpG の大きさで CXps の数は線型であると結論付けることができる。 0.77
The algorithm for listing the CXps exploits the previous remarks, but takes into consideration that some paths may contribute candidate CXps that are supersets of others (and so not actual CXps); these must be filtered out. CXpsをリストアップするアルゴリズムは、以前の発言を悪用するが、いくつかの経路は、他のもの(つまり実際のCXpsではない)のスーパーセットである候補CXpsに寄与する可能性がある。 0.73
✷ 5 Deciding Explanation Membership ✷ 5 説明会員の決定 0.87
To the best of our knowledge, the problem of deciding the membership of some literal in a prime implicant has not been studied in detail before. 私たちの知る限りでは、素因果関係のあるリテラルのメンバーシップを決定する問題は、これまで詳細には研究されていなかった。 0.57
However, in the case of explainability, it is paramount to be able to answer the query of whether a feature (and assigned value) are included in some explanation. しかし、説明可能性の場合は、機能(と割り当てられた値)が説明に含まれているかどうかの問い合わせに答えられることが最重要である。 0.76
This section briefly analyzes the complexity of deciding membership in PIs. 本節では、PIにおけるメンバシップ決定の複雑さを簡潔に分析する。 0.52
Clearly, the results for AXps/CXps track the results for PIs. 明らかに、AXps/CXpsの結果はPIの結果を追跡する。 0.72
For the general case of DNFs, we prove that PI membership is hard for ΣP 2. DNF の一般の場合、PI のメンバーシップは ΣP 2 では困難であることを示す。 0.81
For general XpG’s, we show that the problem is in NP. 一般的なxpgの場合、問題はnpにあることを示している。 0.58
Finally, for tree XpG’s, we show that PI/AXp/CXp membership is in P. Hence, for DTs, we can decide in polynomial time whether some feature is included in some AXp or CXp. 最後に、木 XpG に対して、PI/AXp/CXp のメンバーシップが P に含まれることを示す。したがって、DT に対して、ある特徴が AXp または CXp に含まれるか否かを多項式時間で決定できる。
訳抜け防止モード: 最後に、ツリーXpGの場合、 PI / AXp / CXp のメンバシップは P. Hence, for DTs である。 多項式時間で決定できるのは いくつかの機能はAXpやCXpに含まれている。
0.77
Proposition 7. Deciding PI membership for a DNF is hard for ΣP 2. プロポーズ7。 DNFのPIメンバシップの決定はΣP2では難しい。 0.63
Proof. [Sketch] We reduce deciding membership in a minimal unsatisfiable subset (MUS), which is known to be hard for ΣP 2 (Liberatore 2005), to PI testing for DNFs. 証明。 [Sketch] ΣP 2 (Liberatore 2005) で難しいことが知られている最小不満足な部分集合 (MUS) のメンバシップの決定を DNF のPIテストに還元する。 0.71
Let ϕ = {γ1, . φ = {γ1, とする。 0.74
. . , γm} be an unsatisfiable CNF formula. . . γm は不満足な CNF 公式である。 0.82
We want to decide whether γi is included in some MUS. γi が MUS に含まれるかどうかを判断したい。 0.63
The reduction works as follows. 削減は以下の通りである。 0.66
First, create a DNF ¬ϕ, which まず、DNF >φ を作成します。 0.72
英語(論文から抽出)日本語訳スコア
is valid. Then, define a boolean function ψ : S → {0, 1}, by conjoining a selector variable sj with each term ¬γj . 有効です。 すると、セレクタ変数 sj と各項 sγj を結合することにより、ブール関数 ψ : s → {0, 1} を定義する。 0.71
Clearly, ψ(1, . は明らかに ψ(1, ) である。 0.49
. . , 1) = 1, and ψ(0, . . . , 1) = 1, and ψ(0, . 0.85
. . , 0) = 0. . . , 0) = 0. 0.85
Furthermore, it is plain that any assignment to the si variables that selects any MUS of ϕ, will be a prime implicant of ψ, and vice-versa. さらに、 φ の任意の mus を選択する si 変数への割り当ては ψ の素含意であり、逆元であることは明らかである。 0.69
Hence, γj is in some MUS of ϕ iff sj is in some prime implicant of ψ. したがって、γj は φ iff sj のある mus において ψ の素因数である。 0.71
✷ Proposition 8. Deciding PI/AXp/CXp membership for an XpG D is in NP. ✷ 命題8。 XpGDに対するPI/AXp/CXpのメンバシップはNPである。 0.66
Proof. To show that PI membership is in NP, we consider a concrete variable si ∈ S. Moreover, we guess an assignment to the variables in S \ {si}, say u ∈ S, such that ui = 1. 証明。 さらに、s の変数 u ∈ s への代入を推測し、ui = 1 となるような s \{si} の変数の代入を推測する。
訳抜け防止モード: 証明。 PI メンバシップが NP に含まれることを示す。 具体的な変数 si ∈ S を考える。さらに、S \ { si } の変数への代入を推測する。 u ∈ S を ui = 1 とする。
0.69
To decide the membership of si = 1 in the PI represented by u, we proceed as follows: 1. u で表される PI における si = 1 のメンバシップを決定するには、次のようになる。 0.72
Check that given the assignment u, σD(u) = 1. u が与えられたとき、σD(u) = 1 であることを確認する。 0.56
This is done in polynomial time by running Algorithm 1 (and failing to reach a terminal node with label 0). これは、アルゴリズム1を実行して多項式時間で行う(そしてラベル 0 の終端ノードに到達できない)。 0.76
2. The next step is to pick each uj = 1 (one of which is ui), change its value to 0, and check that σD(u) = 0. 2. 次のステップは、各 uj = 1 (うちの1つは ui) を選択し、その値を 0 に変更し、σD(u) = 0 を確認することである。 0.84
This is again done by running Algorithm 1 (at most m times). これはアルゴリズム1(ほとんどのm回数)を実行することで再び行われる。 0.78
This way we establish subset minimality. このようにして、サブセットの最小性を確立します。 0.44
Overall, we can check in polynomial time that u represents a prime implicant containing ui. 全体的に、u が ui を含む素含意を表す多項式時間をチェックすることができる。 0.58
Hence, the membership decision problem is in NP. したがって、会員決定問題はNPにある。 0.72
✷ Proposition 9. Deciding PI/AXp/CXp membership for a tree XpG is in P. ✷ 命題9。 木XpGに対するPI/AXp/CXpのメンバシップをPとする。 0.67
From Proposition 6, we know that enumeration Proof. 命題6から、私たちはその列挙証明を知っている。 0.57
of all CXps can be achieved in polynomial time. 全てのCXpsは多項式時間で達成できる。 0.66
Hence, we can simply run the algorithm outlined in the proof of Proposition 6, list all the features that occur in CXps, and decide whether a given feature is included in that list. したがって、命題6の証明で概説されたアルゴリズムを実行するだけで、cxpで起こる全ての特徴をリストアップし、ある特徴がそのリストに含まれるかどうかを判断することができる。 0.69
For AXps the membership problem is also in P, simply by taking Proposition 1 into account. AXps の場合、会員問題は単に命題 1 を考慮に入れるだけで P に含まれる。 0.72
For PIs, the results match those of AXps. PIの場合、結果はAXpsと一致します。 0.78
✷ 6 Related Work Our work can be related with recent work on bayesian classifiers and decision graphs (Shih et al 2018; Shih et al 2019; Darwiche and Hirth 2020), but also languages from the knowledge compilation (KC) map (Audemard et al 2020). ✷ 6 関連作業 我々の研究は、ベイジアン分類子と決定グラフ(shih et al 2018; shih et al 2019; darwiche and hirth 2020)に関する最近の研究と関連するだけでなく、知識コンパイル(kc)マップ(audemard et al 2020)からの言語も含んでいる。 0.81
In addition, we build on the recent results on the interpretability and the need for explainability of DTs (Izza et al 2020). また,近年のDTの解釈可能性と説明可能性の必要性に関する結果に基づいて構築した(Izza et al 2020)。 0.68
The algorithms described in some of the previous work (Shih et al 2018; Shih et al 2019; Darwiche and Hirth 2020) (and also minimum cardinality explanations, which we do not consider), but do not consider contrastive explanations. 以前の研究(Shih et al 2018、Shih et al 2019、Darwiche and Hirth 2020)で説明されているアルゴリズム(そして、私たちが考慮しない最小限の濃度説明)は、対照的な説明を考慮しない。 0.81
The focus of this earlier work is on ordered decision diagrams, and the proposed algorithms operate on binary features. この初期の研究の焦点は順序決定ダイアグラムであり、提案されたアルゴリズムはバイナリ機能で動作する。 0.75
Furthermore, the proposed algorithms are based on the compilation to some canonical representation (referred to as an ODD). さらに、提案アルゴリズムは、いくつかの標準表現へのコンパイルに基づいている(ODDと呼ぶ)。 0.68
If the goal is to find a few explanations, the algorithms described in this paper are essentially guaranteed to scale in practice, whereas compilation to a canonical representation is less likely to scale (e g see (Marques-Silva et al 2020)). 目的がいくつかの説明を見つけることならば、本論文で説明したアルゴリズムは本質的にはスケールすることが保証されているが、標準表現へのコンパイルはスケールする可能性が低い(Marques-Silva et al 2020)。 0.72
Similarly, other recent cover PI-explanations 同様に 最近では カバー pi 展開 0.67
work (Audemard et al 2020) investigates languages from the knowledge compilation map, which consider binary features. Work (Audemard et al 2020)は、バイナリ機能を考慮した知識コンパイルマップから言語を調査する。 0.83
In addition, the tractable classifiers considered in (Audemard et al 2020) for AXps do not intersect those studied in this paper. また, AXps のトラクタブル分類器 (Audemard et al 2020) は, 本論文で検討した分類器と交差しない。 0.69
7 Experimental Results This section presents the experiments carried out to assess the practical effectiveness of the proposed algorithms. 7 実験結果 本稿では,提案アルゴリズムの有効性を評価するために行った実験について述べる。 0.78
The assessment is performed on the computation of abductive (AXp) and contrastive (CXp) explanations for two case studies of DGs: OBDDs and DTs. OBDDとDTの2つのケーススタディに対して、導出性(AXp)とコントラスト性(CXp)の説明の計算を行った。 0.67
The experiments consider a selection of datasets that are publicly available and originate from UCI Machine Learning Repository (UCI 2020), Penn Machine Learning Benchmarks (Olson et al 2017) and openML (Vanschoren et al 2013). 実験では、UCI Machine Learning Repository (UCI 2020)、Penn Machine Learning Benchmarks (Olson et al 2017)、openML (Vanschoren et al 2013)から公開されたデータセットの選択を検討する。
訳抜け防止モード: 実験では、公開されているデータセットの選択を検討する UCI Machine Learning Repository(UCI 2020)を起源とする。 Penn Machine Learning Benchmarks (Olson et al 2017 ) とopenML (Vanschoren et al 2013 )。
0.81
These benchmarks are organized into two categories: the first category contains binary classification datasets with fully binary features, and counts 11 datasets; the second category comprises binary and multidimensional classification datasets with categorical and/or ordinal (i.e. これらのベンチマークは2つのカテゴリに分類される: 1つのカテゴリは、完全なバイナリ特徴を持つバイナリ分類データセットを含み、11のデータセットをカウントする。 0.67
integer or real-valued) features, and counts 34 datasets. integerまたはreal-valued)機能で、34のデータセットをカウントする。 0.58
Hence, the total number of considered datasets is 45. したがって、考慮されたデータセットの総数は45である。 0.72
The subset of the binary datasets is considered for generating OBDDs, while the remaining selected datasets are used for learning DTs. バイナリデータセットのサブセットはOBDDを生成するために考慮され、残りの選択データセットはDTを学ぶために使用される。 0.66
To learn OBDDs, we first train Decision List (DL) models on the given binary datasets and then compile the obtained DLs into OBDDs using the approach proposed in (Narodytska et al 2019a). OBDDを学ぶために、まず、与えられたバイナリデータセット上で決定リスト(DL)モデルをトレーニングし、提案されたアプローチ(Narodytska et al 2019a)を使用して、得られたDLをOBDDにコンパイルします。 0.67
DLs are learned using Orange3 (Demˇsar et al 2013), the order of rules is determined by Orange3 and the last rule is the default rule. DLはOrange3で学習され、規則の順序はOrange3によって決定され、最後のルールはデフォルトルールである。 0.75
The compilation to OBDDs is performed using BuDDy (Lind-Nielsen 1999). OBDD へのコンパイルは BuDDy (Lind-Nielsen 1999) を使って行われる。 0.72
A rule is of the form “IF antecedent THEN prediction”, where the antecedent is a conjunction of features, and the prediction is the class variable y. 規則は "if antecedent then prediction" という形式であり、前兆は特徴の結合であり、予測はクラス変数 y である。 0.71
The antecedent of default rule is empty. デフォルトルールの先行値は空です。 0.59
Rules are translated into terms, and then conjoined into a Boolean function. ルールは用語に変換され、ブール関数に結合される。 0.64
Example 9. Given a DL = {x1 ∧x2 → 1, ¯x1 ∧x2 → 0, ∅ → 0}, it represents Boolean function: 例9。 a dl = {x1 ]x2 → 1, ]x1 ]x2 → 0, ] → 0} と与えられると、ブール函数を表す。
訳抜け防止モード: 例9。 a dl = { x1 , x2 → 1 , x1 , x2 → 0 と与えられる。 この関数はboolean関数 : : を表す。
0.73
FG = x1 ∧ x2 ∧ y FG = x1 > x2 > y 0.80
∨ x1 ∧ x2 ∧ (¯x1 ∧ x2) ∧ ¯y ∨ x1 ∧ x2 ∧ ¯x1 ∧ x2 ∧ ¯y x1 は x2 で、x2 は x2 で、x2 は x1 で、x2 は x1 で、x2 は x2 で、x2 は x2 である。 0.29
(5) After compilation, we compute FG|y=1 on OBDD to eliminate class variable y, therefore any path ending in y (resp. (5) コンパイル後、OBDD上のFG|y=1を計算して、クラス変数yを排除します。
訳抜け防止モード: (5) コンパイル後、OBDD上でFG|y=1を計算する クラス変数 y を取り除くため、任意のパスが y (resp) で終わる。
0.74
¯y) is now a path to 1 (resp. y) は 1 への経路である (resp.)。 0.70
0). For training DTs, we use the learning tool IAI (Interpretable IA) (Bertsimas and Dunn 2017; IAI 2020), which provides shallow DTs that are highly accurate. 0). DTのトレーニングには、非常に正確な浅いDTを提供する学習ツールIAI(Interpretable IA)(Bertsimas and Dunn 2017; IAI 2020)を使用します。
訳抜け防止モード: 0). DTのトレーニングには,学習ツールIAI (Interpretable IA ) (Bertsimas and Dunn 2017 ; IAI 2020 ) を用いる。 これは、非常に正確な浅いDTを提供します。
0.88
To achieve high accuracy in the DTs, the maximum depth is tuned to 6 while the remaining parameters are kept in their default set up. DTの精度を高めるため、最大深さは6に調整され、残りのパラメータはデフォルト設定で保持される。 0.73
(Note that the test accuracy achieved for the trained classifiers, both OBDDs and DTs, is always greater than 75%). (OBDDもDTも、訓練済みの分類器で達成されたテスト精度は、常に75%以上である)。 0.72
the proposed algorithms are implemented in The PySAT package 提案されたアルゴリズムはPySATパッケージで実装される 0.79
in the XpG package5. XpG package5で。 0.72
All Python, すべて python です。 0.72
5https://github.com/ yizza91/xpg 5https://github.com/ yizza91/xpg 0.34
英語(論文から抽出)日本語訳スコア
(Ignatiev et al 2018) is used to instrument incremental SAT oracle calls in XP enumeration (see Algorithm 4) and the dd 6 package, implemented in Python and Cython, is used to integrate BuDDy, which is implemented in C. The experiments are performed on a MacBook Pro with a 6-Core Intel Core i7 2.6 GHz processor with 16 GByte RAM, running macOS Big Sur. (Ignatiev et al 2018)はXP列挙で漸進的なSATオーラルコールを計測するために使用され(アルゴリズム4を参照)、PythonとCythonで実装されたdd 6パッケージは、Cで実装されたBuDDyを統合するために使用される。実験は6コアのIntel Core i7 2.6 GHzプロセッサでMacBook Pro上で行われ、macOS Big Surが16GByte RAMで動作する。 0.76
Table 1 summarizes the obtained results of explaining OBDDs. 表1は、OBDDの説明の結果をまとめたものです。 0.57
(The table’s caption also describes the meaning of each column.) (表のキャプションには各列の意味も記されている)。 0.68
As can be observed, the maximum running time to enumerate XPs is less than 0.074 sec for all tested XpG’s in any OBDD and does not exceed 0.02 sec on average. ご覧の通り、xpsを列挙する最大実行時間は、あらゆるobddでテストされたxpgに対して0.074秒未満であり、平均0.02秒を超えない。 0.66
In terms of the number of XPs, the total number of AXps and CXps per instance is relatively small. XPの数に関しては、インスタンス当たりのAXpsとCXpsの総数は比較的小さい。 0.67
Thus the overall cost of the SAT oracle calls made for XP enumeration is negligible. したがって、XP列挙のためのSATオラクル呼び出しの全体的なコストは無視できる。 0.67
In addition, these observations apply even for large OBDDs, e g OBDD learned from the spect dataset has 284 nodes and results in 11 XPs on average. さらに、これらの観察は大規模なOBDDにも適用されます。例えば、spectデータセットから学んだOBDDには284のノードがあり、結果として平均11のXPが存在します。 0.54
Similar observations can be made with respect to explanation enumeration for DTs, the results of which are detailed in Table 2. 同様の観測はDTの説明列挙に関して行うことができ、その結果は表2に詳述されている。 0.82
Exhaustive enumeration of XPs for a XpG built from a DT takes only a few milliseconds. DTから構築されたXpGのXPの排他的列挙には数ミリ秒しかかからない。 0.68
Indeed, the largest average runtime (obtained for the dna dataset) is 0.036 sec. 実際、最大の平均ランタイム(dnaデータセットに含まれている)は0.036秒である。 0.63
Furthermore and as can be observed, the average length %L of an XP is in general relatively small, compared to the total number of features of the corresponding dataset. さらに、観測可能なように、xpの平均長さ%lは、対応するデータセットの特徴の総数と比較して、一般的に比較的小さい。 0.73
Also, the total number of XPs per instance is on average less than 11 and never exceeds 18. また、インスタンス当たりのxpの合計数は平均で11未満で、18を超えることはない。 0.79
Although the DGs considered in the experiments can be viewed as relatively small and shallow (albeit this only reflects the required complexity given the public datasets available), the run time of the enumerator depends essentially on solving a relatively simple CNF formula (H) which grows linearly with the number of XPs. 実験で考慮されたDGは比較的小さくて浅いと見なすことができるが(これは公開データセットが利用可能な場合、必要な複雑さを反映しているだけである)、列挙子の実行時間は基本的にXPの数と線形に増加する比較的単純なCNF式(H)の解法に依存する。 0.76
(The run time of the actual extractors in negligible.) (実際の抽出器の実行時間は無視できる。) 0.73
This suggests that the proposed algorithms will scale for significantly larger DGs, characterized also by a larger total number of XPs. このことは、提案アルゴリズムがより大きなDGに対してスケールし、XPの総数も大きくなることを示唆している。 0.75
8 Conclusions The paper introduces explanation graphs, which allow several classes of graph-based classifiers to be explained with the same algorithms. 8 結論 本稿では,グラフベース分類器のクラスを同一アルゴリズムで説明可能な説明グラフを提案する。 0.73
These algorithms allow for a single abductive or a single contrastive explanation to be computed in polynomial time, and enumeration of explanations to be achieved with a single call to a SAT oracle per computed explanation. これらのアルゴリズムは、1つのアブダクティブまたは1つの対照的な説明を多項式時間で計算することができ、計算された説明ごとにsat oracleへの1回の呼び出しで説明を列挙することができる。 0.68
The paper also relates the evaluation of explanation graphs with monotone functions. また,単調関数を用いた説明グラフの評価についても述べる。 0.72
In addition, the paper proves that for decision trees, computing all contrastive explanations and deciding feature membership in some explanation can be solved in polynomial time. さらに, 決定木に対しては, コントラスト的な説明を全て計算し, ある説明において特徴的メンバシップを決定することは多項式時間で解けることを示す。 0.60
The experimental results demonstrate the practical effectiveness of the ideas proposed in the paper. 論文で提案したアイデアの実践的有効性を示す実験結果を得た。 0.76
Acknowledgments. This work was supported by the AI Interdisciplinary Institute ANITI, funded by the French program “Investing for the Future – PIA3” under Grant agreement no. 承諾。 この研究は ai interdisciplinary institute aniti によって支援され、フランスのプログラム "investing for the future – pia3" によって助成された。 0.59
ANR-19-PI3A-0004, and by the H2020-ICT38 ANR-19-PI3A-0004とH2020-ICT38 0.49
6https://github.com/ tulip-control/dd 6https://github.com/ tulip-control/dd 0.31
project COALA “Cognitive Assisted agile manufacturing for a Labor force supported by trustworthy Artificial intelligence”. プロジェクト COALA “信頼に値する人工知能によって支援された労働力のための認知支援アジャイル製造”。 0.65
References Rathinakumar Appuswamy, Massimo Franceschetti, Nikhil Karamchandani, and Kenneth Zeger. 参考文献 Rathinakumar Appuswamy、Massimo Franceschetti、Nikhil Karamchandani、Kenneth Zeger。 0.62
Network coding for computing: Cut-set bounds. コンピューティングのためのネットワークコーディング: カットセット境界。 0.76
IEEE Trans. IEEE Trans。 0.82
Inf. Theory, 57(2):1015–1030, 2011. Inf 57(2):1015–1030、2011年。 0.54
Gilles Audemard, Frederic Koriche, and Pierre Marquis. Gilles Audemard、Frederic Koriche、Pierre Marquis。 0.67
On tractable XAI queries based on compiled representations. コンパイルされた表現に基づく抽出可能なXAIクエリについて。 0.47
In KR, 2020. Lalit R. Bahl, Peter F. Brown, Peter V. de Souza, and Robert L. Mercer. 2020年、KR。 Lalit R. Bahl、Peter F. Brown、Peter V. de Souza、Robert L. Mercer。 0.79
A tree-based statistical language model for natural language speech recognition. 自然言語音声認識のための木に基づく統計的言語モデル 0.84
IEEE Trans. IEEE Trans。 0.82
Acoust. Speech Signal Process., 37(7):1001–1008, 1989. acoust ? 音声信号処理, 37(7):1001–1008, 1989。 0.70
Pablo Barcel´o, Mika¨el Monet, Jorge P´erez, and Bernardo Subercaseaux. パブロ・バルセル・オ、ミカ・エル・モネ、ホルヘ・p・エレス、ベルナルド・スベルカソー。 0.35
Model interpretability through the lens of computational complexity. 計算複雑性のレンズによるモデル解釈可能性。 0.73
In NeurIPS, 2020. 2020年、NeurIPS。 0.70
David Bergman, Andr´e A. Cir´e, Willem-Jan van Hoeve, and John N. Hooker. David Bergman, Andr ́e A. Cir ́e, Willem-Jan van Hoeve, John N. Hooker 0.82
Decision Diagrams for Optimization. 最適化のための決定図。 0.63
Springer, 2016. スプリンガー、2016年。 0.60
Dimitris Bertsimas and Jack Dunn. ディミトリス・バートシマスとジャック・ダン。 0.42
Optimal classification trees. Mach. 最適な分類木。 Mach 0.62
Learn., 106(7):1039–1082, 2017. 106(7):1039-1082, 2017年。 0.79
Leo Breiman. Statistical modeling: The two cultures. レオ・ブレマン 統計モデル:2つの文化。 0.70
Statistical science, 16(3):199–231, 2001. 統計学 16(3):199–231, 2001。 0.86
Carla E. Brodley and Paul E. Utgoff. Carla E. BrodleyとPaul E. Utgoff。 0.94
Multivariate decision trees. Mach. 多変量決定木。 Mach 0.60
Learn., 19(1):45–77, 1995. 19(1):45-77、1995年。 0.76
Randal E. Bryant. ランダル・e・ブライアント 0.49
Graph-based algorithms for boolean function manipulation. ブール関数操作のためのグラフベースアルゴリズム 0.73
IEEE Trans. IEEE Trans。 0.82
Computers, 35(8):677–691, 1986. コンピュータ、35(8):677–691、1986。 0.84
Gianpiero Cabodi, Paolo E. Camurati, Alexey Ignatiev, Joao Marques-Silva, Marco Palena, and Paolo Pasini. Gianpiero Cabodi、Paolo E. Camurati、Alexey Ignatiev、Joao Marques-Silva、Marco Palena、Paolo Pasini。 0.81
Optimizing binary decision diagrams for interpretable machine learning classification. 解釈可能な機械学習分類のためのバイナリ決定ダイアグラムの最適化。 0.65
In DATE, 2021. Oana-Maria Camburu, Eleonora Giunchiglia, Jakob Foerster, Thomas Lukasiewicz, and Phil Blunsom. 2021年。 Oana-Maria Camburu、Eleonora Giunchiglia、Jakob Foerster、Thomas Lukasiewicz、Phil Blunsom。 0.57
Can I trust the explainer? 説明を信用できますか。 0.63
verifying post-hoc explanatory methods. ポストホックな説明方法の検証。 0.51
CoRR, abs/1910.02065, 2019. CoRR, abs/1910.02065, 2019。 0.72
John W. Chinneck and Erik W. Dravnieks. ジョン・W・チネックとエリック・W・ドラヴニーク。 0.43
Locating minimal infeasible constraint sets in linear programs. 線形プログラムにおける最小限の不可能な制約セットの配置。 0.58
INFORMS J. Comput., 3(2):157–168, 1991. 略称はJ。 3(2):157–168、1991年。 0.55
Yves Crama and Peter L. Hammer. Yves CramaとPeter L. Hammer。 0.91
Boolean FunctionsTheory, Algorithms, and Applications. ブール関数論、アルゴリズム、応用。 0.61
Cambridge University Press, 2011. ケンブリッジ大学出版局、2011年。 0.59
DARPA. plainable https://www.darpa.mi l/program/explainabl e-artificial-intelligence, 2016. DARPA plainable https://www.darpa.mi l/ program/explainable- artificial-intellige nce, 2016 0.47
program intelligence プログラムインテリジェンス 0.70
artificial artificial~ 0.73
DARPA on ex(XAI). DARPA オン ex(XAI)。 0.77
Adnan Darwiche and Auguste Hirth. Adnan DarwicheとAuguste Hirth。 0.78
On the reasons behind decisions. 意思決定の背後にある理由についてです 0.41
In ECAI, pages 712–720, 2020. ECAI、2020年712-720頁。 0.77
Adnan Darwiche and Pierre Marquis. Adnan DarwicheとPierre Marquis。 0.79
A knowledge compilation map. 知識コンパイルマップ。 0.59
J. Artif. Intell. J. Artif インテリ。 0.65
Res., 17:229–264, 2002. 2002年、17:229-264頁。 0.50
Adnan Darwiche. Adnan Darwiche 0.58
Modeling and Reasoning with Bayesian Networks. ベイズネットワークを用いたモデリングと推論。 0.77
Cambridge University Press, 2009. 2009年ケンブリッジ大学出版局。 0.71
英語(論文から抽出)日本語訳スコア
Dataset (#F データセット (#F) 0.76
#TI) OBDD XPs TI) OBDD XP 0.69
AXp CXp Runtime AXP CXP ランタイム 0.62
#N %A avg Mx m avg %L Mx m avg %L #n %a avg mx m avg %l mx m avg %l 0.80
Tot Mx m avg トットMx M avg 0.77
( 6 corral (4702 dbworld-bodies (3721 dbworld-bodies-stemm ed dbworld-subjects ( 242 dbworld-subjects-ste mmed ( 229 mofn 3 7 10 mux6 parity5+5 spect threeOf9 xd6 (6)corral (4702 dbworld-bodies (3721 dbworld-bodies-stemm ed dbworld-subjects (242 dbworld-subjects-ste mmed (229 mofn 3 7 10 mux6 parity5+5 spect threeof9 xd6) 0.63
64) 62) 62) 63) 63) ( 10 251) ( 64) ( 10 222) ( 22 ( ( 64) 62) 62) 63) 63) ( 10 251) ( 64) ( 10 222) ( 22 ( ( 0.85
6 7 6 14 18 21 9 71 93) 284 33 11 6 7 6 14 18 21 9 71 93) 284 33 11 0.85
6 9 205) 9 325) 6 9 205) 9 325) 0.85
100 92 84 84 84 98 100 80 87 95 100 100 92 84 84 84 98 100 80 87 95 100 0.85
4 4 3 5 6 11 5 8 11 8 7 4 4 3 5 6 11 5 8 11 8 7 0.85
4 2 3 2 3 33 4 11 24 16 18 4 2 3 2 3 33 4 11 24 16 18 0.85
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0.85
2 1 1 1 1 5 2 2 4 3 4 2 1 1 1 1 5 2 2 4 3 4 0.85
34 1 1 2 2 34 51 59 22 39 34 34 1 1 2 2 34 51 59 22 39 34 0.85
4 3 4 5 5 33 4 15 36 18 27 4 3 4 5 5 33 4 15 36 18 27 0.85
2 1 1 2 2 3 3 5 1 3 3 2 1 1 2 2 3 3 5 1 3 3 0.85
2 2 2 4 4 7 3 6 7 5 3 2 2 2 4 4 7 3 6 7 5 3 0.85
22 1 1 1 1 23 24 14 14 21 18 22 1 1 1 1 23 24 14 14 21 18 0.85
0.072 0.002 0.001 0.001 0.072 0.002 0.001 0.001 0.056 0.001 0.000 0.001 0.090 0.003 0.001 0.001 0.190 0.007 0.001 0.003 1.183 0.022 0.001 0.005 0.103 0.004 0.001 0.002 1.237 0.015 0.003 0.006 1.726 0.074 0.007 0.019 0.921 0.017 0.002 0.004 0.647 0.010 0.001 0.002 0.072 0.002 0.001 0.001 0.072 0.002 0.001 0.001 0.056 0.001 0.000 0.001 0.090 0.003 0.001 0.001 0.190 0.007 0.001 0.003 1.183 0.022 0.001 0.005 0.103 0.004 0.001 0.002 1.237 0.015 0.003 0.006 1.726 0.074 0.007 0.019 0.921 0.017 0.002 0.004 0.647 0.010 0.001 0.002 0.40
Table 1: Listing all XPs (AXp’s and CXp’s) for OBDDs. 表1:OBDDのすべてのXP(AXpとCXp)をリストする。 0.65
Columns #F and #TI report, respectively, the number of features, and the number of tested instances, in the dataset. カラム#Fと#TIのレポートでは,それぞれ,データセット内の機能数とテストインスタンス数が報告されている。 0.71
(Note that for a dataset containing more than 1000 instances, 30% of its instances, randomly selected, are used to be explained. (1000以上のインスタンスを含むデータセットについて、ランダムに選択されたインスタンスの30%が説明されていることに注意)。 0.66
Moreover, duplicate rows in the datasets are filtered.) さらに、データセット内の重複行をフィルタする)。 0.82
Column XPs reports the average number of total explanations (AXp’s and CXp’s). column xpsは、総説明(axpとcxp)の平均数を報告している。 0.68
Sub-Columns #N and %A show, respectively, total number of nodes and test accuracy of an OBDD. サブカラム#Nと%Aはそれぞれ、ノードの総数とOBDDのテスト精度を示している。 0.75
Sub-columns Mx, m and avg of column AXp (resp., CXp ) show, respectively, the maximum, minimum and average number of explanations. カラム axp (resp., cxp ) のサブカラム mx, m, avg はそれぞれ、説明の最大値、最小値、平均値を示している。 0.70
The average length of an explanation (AXp/CXp) is given as %L. 説明の平均長(AXp/CXp)を%Lとする。 0.74
Sub-columns Tot, Mx, m and avg of column RunTime reports, respectively, the total, maximal, minimal and average time in second to list all the explanations for all tested instances. サブカラム Tot, Mx, m, avg のカラム RunTime レポートはそれぞれ,テスト対象のすべてのインスタンスに関する説明をリストアップするために,合計,最大,最小,平均の各時間を秒単位で記録する。 0.75
Dataset (#F データセット (#F) 0.76
#TI) DT XPs AXp TI) DT XP AXP 0.67
CXp Runtime D #N %A avg Mx m avg %L Mx m avg %L CXP ランタイム d #n %a avg mx m avg %l mx m avg %l 0.68
Tot Mx m avg トットMx M avg 0.77
adult agaricus-lepiota anneal bank cancer car chess churn colic collins dermatology divorce dna hayes-roth hepatitis house-votes-84 iris irish kr-vs-kp lymphography molecular-biology-pr omoters monk1 monk2 monk3 mouse mushroom new-thyroid pendigits seismic-bumps shuttle soybean spambase tic-tac-toe zoo Agaricus-lepiota anneal bank car chess churn colic collins dermatology divorce dna hayes-roth hepatitis house-votes-84 iris irish kr-vs-kp lymphography molecular-biology-pr omoters monk 1 monk 2 monk 3 mouse mushroom new-thyroid pendigits damage-bumps shuttle soybean spambase tic-tac-toe zoo 0.67
( 12 1766) ( 22 2437) ( 38 886) ( 19 10 837) 449) 9 ( 519) ( 6 ( 36 959) ( 20 1500) 357) ( 22 485) ( 23 366) ( 34 150) ( 54 (180 901) 84) ( 4 155) ( 19 298) ( 16 149) 4 ( ( 5 470) 959) ( 36 148) ( 18 106) ( 58 124) 6 ( 169) 6 ( ( 6 122) ( 57) 5 ( 22 2438) ( 215) ( 16 3298) ( 18 774) 9 17 400) ( ( 35 622) ( 57 1262) 958) ( 9 ( 16 59) ( 12 1766) ( 22 2437) ( 38 886) ( 19 10 837) 449) 9 ( 519) ( 6 ( 36 959) ( 20 1500) 357) ( 22 485) ( 23 366) ( 34 150) ( 54 (180 901) 84) ( 4 155) ( 19 298) ( 16 149) 4 ( ( 5 470) 959) ( 36 148) ( 18 106) ( 58 124) 6 ( 169) 6 ( ( 6 122) ( 57) 5 ( 22 2438) ( 215) ( 16 3298) ( 18 774) 9 17 400) ( ( 35 622) ( 57 1262) 958) ( 9 ( 16 59) 0.85
5 83 6 37 6 6 29 6 113 37 6 43 6 6 33 21 6 55 6 29 6 33 6 15 5 6 61 23 6 17 5 49 6 23 5 4 13 49 6 61 6 17 6 17 4 67 6 6 35 9 3 39 6 3 11 6 121 6 37 63 6 63 6 63 6 69 6 6 23 5 83 6 37 6 6 29 6 113 37 6 43 6 6 33 21 6 55 6 29 6 33 6 15 5 6 61 23 6 17 5 49 6 23 5 4 13 49 6 61 6 17 6 17 4 67 6 6 35 9 3 39 6 3 11 6 121 6 37 63 6 63 6 63 6 69 6 6 23 0.85
78 100 99 88 87 96 97 75 81 75 90 90 90 78 77 91 90 97 96 76 86 100 82 80 83 100 95 88 89 99 88 75 93 91 78 100 99 88 87 96 97 75 81 75 90 90 90 78 77 91 90 97 96 76 86 100 82 80 83 100 95 88 89 99 88 75 93 91 0.85
8 6 9 18 7 4 7 2 11 4 7 6 10 3 6 9 5 3 7 11 4 3 6 4 3 6 4 8 7 4 7 10 9 5 8 6 9 18 7 4 7 2 11 4 7 6 10 3 6 9 5 3 7 11 4 3 6 4 3 6 4 8 7 4 7 10 9 5 0.85
11 6 8 38 8 4 10 1 18 1 6 8 28 3 10 30 3 2 23 15 6 2 7 6 4 5 2 12 12 4 4 22 13 2 11 6 8 38 8 4 10 1 18 1 6 8 28 3 10 30 3 2 23 15 6 2 7 6 4 5 2 12 12 4 4 22 13 2 0.85
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0.85
2 3 3 9 3 2 3 1 5 1 2 3 4 1 3 5 2 1 4 5 2 1 2 2 1 2 1 2 4 1 1 3 4 1 2 3 3 9 3 2 3 1 5 1 2 3 4 1 3 5 2 1 4 5 2 1 2 2 1 2 1 2 4 1 1 3 4 1 0.85
41 17 14 33 39 39 12 5 23 11 14 7 3 54 18 25 58 33 12 28 6 38 65 45 41 18 54 37 17 34 15 11 51 24 41 17 14 33 39 39 12 5 23 11 14 7 3 54 18 25 58 33 12 28 6 38 65 45 41 18 54 37 17 34 15 11 51 24 0.85
12 7 10 21 7 6 10 1 10 4 11 4 12 3 5 10 4 2 8 12 5 3 9 4 3 7 3 13 7 6 7 15 12 6 12 7 10 21 7 6 10 1 10 4 11 4 12 3 5 10 4 2 8 12 5 3 9 4 3 7 3 13 7 6 7 15 12 6 0.85
2 2 2 4 2 1 1 1 3 1 1 1 2 1 2 2 2 1 2 3 1 1 2 2 2 2 2 5 2 2 3 3 3 2 2 2 2 4 2 1 1 1 3 1 1 1 2 1 2 2 2 1 2 3 1 1 2 2 2 2 2 5 2 2 3 3 3 2 0.85
5 4 6 9 4 2 5 1 6 3 5 3 5 2 3 4 3 2 4 6 2 2 5 3 2 4 3 6 4 3 5 7 6 4 5 4 6 9 4 2 5 1 6 3 5 3 5 2 3 4 3 2 4 6 2 2 5 3 2 4 3 6 4 3 5 7 6 4 0.85
13 7 5 12 21 24 5 5 8 5 4 3 2 27 10 13 39 23 5 10 3 18 23 23 25 7 21 9 11 13 4 3 20 9 13 7 5 12 21 24 5 5 8 5 4 3 2 27 10 13 39 23 5 10 3 18 23 23 25 7 21 9 11 13 4 3 20 9 0.85
0.010 0.001 0.003 5.76 0.006 0.001 0.002 5.30 4.02 0.015 0.002 0.005 87.11 0.032 0.002 0.008 0.006 0.001 0.003 1.12 0.004 0.001 0.001 0.71 2.99 0.012 0.001 0.003 0.002 0.001 0.001 1.04 0.011 0.001 0.004 1.31 0.002 0.001 0.001 0.58 0.007 0.001 0.003 0.97 0.73 0.010 0.002 0.005 32.15 0.097 0.010 0.036 0.001 0.000 0.001 0.06 0.004 0.001 0.002 0.29 0.016 0.001 0.003 0.93 0.003 0.001 0.001 0.16 0.27 0.001 0.000 0.001 0.014 0.001 0.003 3.03 0.009 0.001 0.004 0.54 0.008 0.003 0.004 0.43 0.002 0.000 0.001 0.11 0.005 0.001 0.002 0.31 0.15 0.004 0.001 0.001 0.001 0.000 0.001 0.04 0.007 0.001 0.002 5.43 0.12 0.001 0.000 0.001 10.19 0.011 0.002 0.003 3.02 0.009 0.001 0.004 33.67 0.005 0.001 0.002 0.012 0.002 0.005 3.12 0.019 0.002 0.005 6.63 0.009 0.001 0.003 2.94 0.12 0.003 0.001 0.002 0.010 0.001 0.003 5.76 0.006 0.001 0.002 5.30 4.02 0.015 0.002 0.005 87.11 0.032 0.002 0.008 0.006 0.001 0.003 1.12 0.004 0.001 0.001 0.71 2.99 0.012 0.001 0.003 0.002 0.001 0.001 1.04 0.011 0.001 0.004 1.31 0.002 0.001 0.001 0.58 0.007 0.001 0.003 0.97 0.73 0.010 0.002 0.005 32.15 0.097 0.010 0.036 0.001 0.000 0.001 0.06 0.004 0.001 0.002 0.29 0.016 0.001 0.003 0.93 0.003 0.001 0.001 0.16 0.27 0.001 0.000 0.001 0.014 0.001 0.003 3.03 0.009 0.001 0.004 0.54 0.008 0.003 0.004 0.43 0.002 0.000 0.001 0.11 0.005 0.001 0.002 0.31 0.15 0.004 0.001 0.001 0.001 0.000 0.001 0.04 0.007 0.001 0.002 5.43 0.12 0.001 0.000 0.001 10.19 0.011 0.002 0.003 3.02 0.009 0.001 0.004 33.67 0.005 0.001 0.002 0.012 0.002 0.005 3.12 0.019 0.002 0.005 6.63 0.009 0.001 0.003 2.94 0.12 0.003 0.001 0.002 0.39
Table 2: Listing all XPs (AXp’s and CXp’s) for DTs. 表2:すべてのXP(AXpとCXp)をDTにリストする。 0.69
Sub-Columns #D, #N and %A report, respectively, tree’s max depth, total number of nodes and test accuracy of a DT. サブカラム#Dと#Nと%Aは、それぞれ木の最大深さ、ノードの総数、DTのテスト精度を報告します。 0.72
The remaining columns hold the same meaning as described in the caption of Table 1. 残りの列は表1のキャプションに記載されているのと同じ意味を持つ。 0.74
英語(論文から抽出)日本語訳スコア
Janez Demˇsar, Tomaˇz Curk, Aleˇs Erjavec, ˇCrt Gorup, Tomaˇz Hoˇcevar, Mitar Milutinoviˇc, Martin Moˇzina, Matija Polajnar, Marko Toplak, Anˇze Stariˇc, Miha ˇStajdohar, Lan Umek, Lan ˇZagar, Jure ˇZbontar, Marinka ˇZitnik, and Blaˇz Zupan. ジャニス・デマサル、トマシュ・クルク、アレーシュ・エルジャヴェク、シクレット・ゴラップ、トマシュ・ホセヴァル、ミタル・ミルティノヴィシュク、マルティン・モジナ、マティヤ・ポラジュナル、マルコ・トプラク、アニス・スターリシュク、ミハ・シュスタジュドハル、ラン・ウメク、ラン・イザガル、ジュレ・イズボンタル、マリンカ・ジトニク、ブラシュ・ズパン。 0.39
Orange: Data mining toolbox in python. orange: pythonのデータマイニングツールボックス。 0.82
Journal of Machine Learning Research, 14:2349–2353, 2013. Journal of Machine Learning Research, 14:2349–2353, 2013 0.88
Richard O. Duda, Peter E. Hart, and David G. Stork. リチャード・O・ダダ、ピーター・E・ハート、デイヴィッド・G・ストーク。 0.57
Pattern classification, 2nd Edition. パターン分類、第2版。 0.79
Wiley, 2001. 2001年、ワイリー。 0.62
and Marcelo A. Falappa, Gabriele Kern-Isberner, Guillermo Ricardo Simari. Marcelo A. Falappa, Gabriele Kern-Isberner, Guillermo Ricardo Simari 0.84
Explanations, belief revision and defeasible reasoning. 説明、信念の修正、矛盾する推論。 0.65
Artif. Intell., 141(1/2):1–28, 2002. Artif 2002年、141(1/2):1-28。 0.57
Michael L. Fredman and Leonid Khachiyan. マイケル・l・フレドマンとレオニード・カハヤン 0.54
On the complexity of dualization of monotone disjunctive normal forms. 単調分離正規形式の双対化の複雑さについて 0.66
J. Algorithms, 21(3):618–628, 1996. J. Algorithms, 21(3):618–628, 1996。 0.84
Alex Alves Freitas. Alex Alves Freitas 0.63
Comprehensible classification models: a position paper. 理解可能な分類モデル:位置用紙。 0.78
SIGKDD Explorations, 15(1):1–10, 2013. SIGKDD Explorations, 15(1):1-10, 2013 0.89
Judy Goldsmith, Matthias Hagen, and Martin Mundhenk. Judy Goldsmith、Matthias Hagen、Martin Mundhenk。 0.67
Complexity of DNF and isomorphism of monotone formulas. dnfの複雑性とモノトン公式の同型。 0.62
In MFCS, pages 410–421, 2005. MFCS、2005年410-421頁。 0.74
Judy Goldsmith, Matthias Hagen, and Martin Mundhenk. Judy Goldsmith、Matthias Hagen、Martin Mundhenk。 0.67
Complexity of DNF minimization and isomorphism testing for monotone formulas. 単調式に対するDNF最小化および同型試験の複雑さ 0.74
Inf. Comput., 206(6):760–775, 2008. Inf Comput., 206(6):760–775, 2008 0.72
Riccardo Guidotti, Anna Monreale, Salvatore Ruggieri, Franco Turini, Fosca Giannotti, and Dino Pedreschi. Riccardo Guidotti, Anna Monreale, Salvatore Ruggieri, Franco Turini, Fosca Giannotti, Dino Pedreschi 0.72
A survey of methods for explaining black box models. ブラックボックスモデルの説明方法に関する調査 0.64
ACM Comput. Surv., 51(5):93:1–93:42, 2019. ACM計算。 2019年、51(5):93:1-93:42。 0.61
Vladimir Gurvich and Leonid Khachiyan. ウラジーミル・グルビッチとレオニード・カハヤン 0.46
On generating the irredundant conjunctive and disjunctive normal forms of monotone boolean functions. 単調ブール関数の既約共役および非共役正規形式の生成について 0.65
Discret. Appl. Math., 9697:363–373, 1999. 異論。 アプリ。 1999年、9697:363–373頁。 0.39
IAI. Interpretable AI. IAI AIの解釈。 0.64
https://www.interpre table.ai/, 2020. https://www.interpre table.ai/, 2020 0.68
Alexey Ignatiev and Joao Marques-Silva. Alexey IgnatievとJoao Marques-Silva。 0.86
SAT-based rigorous explanations for decision lists. SATによる意思決定リストの厳格な説明。 0.64
In SAT, 2021. 2021年、sat。 0.57
In press. Available from https://arxiv.org/ab s/2105.06782. 報道。 https://arxiv.org/ab s/2105.06782から利用可能。 0.33
Alexey Ignatiev, Antonio Morgado, and Joao MarquesSilva. Alexey Ignatiev、Antonio Morgado、Joao MarquesSilva。 0.67
PySAT: A Python toolkit for prototyping with SAT oracles. PySAT: SATオーラクルを使ったプロトタイピング用のPythonツールキット。 0.76
In SAT, pages 428–437, 2018. SAT』428-437頁、2018年。 0.78
Alexey Ignatiev, Nina Narodytska, and Jo˜ao Marques-Silva. アレクセイ・イグナティエフ、ニーナ・ナロディツカ、ジョ・シャオ・マルケス=シルヴァ。 0.56
Abduction-based explanations for machine learning models. 推論に基づく機械学習モデルの説明。 0.75
In AAAI, pages 1511–1519, 2019. AAAI』1511-1519頁、2019年。 0.63
Alexey Ignatiev, Nina Narodytska, and Jo˜ao Marques-Silva. アレクセイ・イグナティエフ、ニーナ・ナロディツカ、ジョ・シャオ・マルケス=シルヴァ。 0.56
On relating explanations and adversarial examples. 説明と逆境の例について。 0.68
In NeurIPS, pages 15857–15867, 2019. NeurIPS, page 15857–15867, 2019。 0.87
Alexey Ignatiev, Nina Narodytska, and Jo˜ao Marques-Silva. アレクセイ・イグナティエフ、ニーナ・ナロディツカ、ジョ・シャオ・マルケス=シルヴァ。 0.56
On validating, repairing and refining heuristic ML explanations. ヒューリスティックMLの説明の妥当性, 修復, 精製について 0.55
CoRR, abs/1907.02509, 2019. CoRR, abs/1907.02509, 2019 0.78
Alexey Ignatiev, Nina Narodytska, Nicholas Asher, and Joao Marques-Silva. Alexey Ignatiev、Nina Narodytska、Nicholas Asher、Joao Marques-Silva。 0.79
From contrastive to abductive explanations and back again. 対照的な説明から誘惑的な説明へ、そして再び。 0.56
In AI*IA, 2020. AI*IA、2020年。 0.76
(Preliminary version available from https://arxiv.org/ab s/2012.11067. (https://arxiv.org/a bs/2012.11067) 0.45
). Yacine Izza and Joao Marques-Silva. ). Yacine IzzaとJoao Marques-Silva。 0.84
On explaining random forests with SAT. SATによるランダム森林の説明について 0.65
In IJCAI, 2021. 2021年、IJCAIに入社。 0.62
In press. Available from https://arxiv.org/ab s/2105.10278. 報道。 https://arxiv.org/ab s/2105.10278から利用可能。 0.34
Yacine Izza, Alexey Ignatiev, and Jo˜ao Marques-Silva. ヤシネ・イッツァ、アレクセイ・イグナティエフ、ジョ・シャオ・マルケス=シルヴァ。 0.46
On explaining decision trees. 決定木の説明について。 0.51
CoRR, abs/2010.11034, 2020. CoRR, abs/2010.11034, 2020 0.78
Yacine Izza, Alexey Ignatiev, Nina Narodytska, Martin C. Cooper, and Joao Marques-Silva. Yacine Izza、Alexey Ignatiev、Nina Narodytska、Martin C. Cooper、Joao Marques-Silva。 0.81
Efficient explanations with relevant sets. 関連する集合の効率的な説明。 0.64
CoRR, abs/2106.00546, 2021. CoRR, abs/2106.00546, 2021。 0.70
Finn V. Jensen. フィン・V・ジェンセン。 0.48
Bayesian Networks and Decision Graphs. Bayesian Networks and Decision Graphs(英語) 0.74
Springer, 2001. 2001年、スプリンガー。 0.62
Ulrich Junker. ウルリッヒ・ユンカー。 0.52
QUICKXPLAIN: preferred explanations and relaxations for over-constrained problems. QUICKXPLAIN:過剰に制約された問題に対する説明と緩和を推奨する。 0.53
In AAAI, pages 167–172, 2004. AAAI』167-172頁、2004年。 0.71
Timothy Yee-kwong Kam and Robert King Brayton. ティモシー・イェ・クウォン・カムとロバート・キング・ブレイトン。 0.48
Multivalued decision diagrams. Technical Report UCB/ERL M90/125, University of California Berkeley, December 1990. 多値決定図。 UCB/ERL M90/125、カリフォルニア大学バークレー校、1990年12月。 0.68
Leonid Khachiyan, Endre Boros, Khaled M. Elbassioni, and Vladimir Gurvich. レオニド・ハチヤン、エンドル・ボロス、ハレド・エルバッセニ、ウラジーミル・グルヴィチ。 0.34
An efficient implementation of a quasipolynomial algorithm for generating hypergraph transversals and its application in joint generation. ハイパーグラフトランスバーサル生成のための準多項アルゴリズムの効率的な実装とその共同生成への応用 0.76
Discret. Appl. Math., 154(16):2350–2372, 2006. 異論。 アプリ。 Math., 154 16):2350–2372, 2006 0.51
Ron Kohavi. Ron Kohavi 0.59
Bottom-up induction of oblivious read-once decision graphs: Strengths and limitations. ぼんやりとしたリードオンス決定グラフのボトムアップ誘導:強みと限界 0.66
In AAAI, pages 613–618, 1994. 1994年、AAAI613-618頁。 0.72
Himabindu Lakkaraju and Osbert Bastani. Himabindu LakkarajuとOsbert Bastani。 0.77
”how do I fool you?”: Manipulating user trust via misleading black box explanations. ブラックボックスの説明を誤解させることによって、ユーザーの信頼を操作する。 0.60
In AIES, pages 79–85, 2020. 79-85頁、2020年。 0.57
Paolo Liberatore. Paolo Liberatore 0.59
Redundancy in logic I: CNF propositional formulae. 論理iにおける冗長性:cnf命題公式。 0.68
Artif. Intell., 163(2):203–232, 2005. Artif Intell., 163(2):203–232, 2005 0.74
Mark H. Liffiton and Karem A. Sakallah. mark h. liffiton と karem a. sakallah。 0.60
Algorithms for computing minimal unsatisfiable subsets of constraints. 制約の最小不満足部分集合を計算するアルゴリズム。 0.73
J. Autom. Reason., 40(1):1–33, 2008. J.Autom 背番号40(1):1-33, 2008。 0.70
Mark H. Liffiton, Alessandro Previti, Ammar Malik, and Jo˜ao Marques-Silva. マーク・H・リフィトン、アレッサンドロ・プレヴィティ、アンマル・マリク、ジョ・シャオ・マルケス=シルヴァ。 0.53
Fast, flexible MUS enumeration. 高速で柔軟なmus列挙。 0.67
Constraints An Int. J., 21(2):223–250, 2016. 制約 - 制約。 J., 21(2):223-250, 2016 0.67
Jørn Lind-Nielsen. Jørn Lind-Nielsen 0.89
Buddy : A binary decision diagram package. Buddy: バイナリ決定ダイアグラムパッケージ。 0.58
1999. http://buddy.sourcef orge.net. 1999年、 http://buddy.sourcef orge.net。 0.47
Zachary C. Lipton. Zachary C. Lipton 0.81
The mythos of model interpretability. モデル解釈可能性の神話。 0.78
Commun. ACM, 61(10):36–43, 2018. Commun ACM, 61(10):36–43, 2018。 0.67
Scott M. Lundberg and Su-In Lee. Scott M. LundbergとSu-In Lee。 0.81
A unified approach to interpreting model predictions. モデル予測を統一的に解釈するアプローチ。 0.82
In NeurIPS, pages 4765– 4774, 2017. NeurIPS, page 4765– 4774, 2017。 0.77
Jo˜ao Marques-Silva, Mikol´as Janota, and Anton Belov. ジョ・シャオ・マルケス=シルヴァ、ミゲル・ヤノタ、アントン・ベロフ。 0.49
Minimal sets over monotone predicates in boolean formulae. 単調な述語に対する最小集合はブール式で表される。 0.57
In CAV, pages 592–607, 2013. CAV、2013年592-607頁。 0.70
Jo˜ao Marques-Silva, Mikol´as Janota, and Carlos Menc´ıa. ジョ・アオ・マルケス=シルヴァ、ミコル・アズ・ジャノタ、カルロス・メンツ・ユア。 0.57
Minimal sets on propositional formulae. 命題公式上の最小集合。 0.62
problems and reductions. Artif. 問題と削減。 Artif 0.59
Intell., 252:22–50, 2017. 2017年、252:22-50。 0.53
Jo˜ao Marques-Silva, Thomas Gerspacher, Martin C. Cooper, Alexey Ignatiev, and Nina Narodytska. ジョアオ・マルケス=シルヴァ、トーマス・ガースパーチャー、マーティン・クーパー、アレクセイ・イグナティエフ、ニーナ・ナロディツカ。 0.57
Explaining naive bayes and other linear classifiers with polynomial time and delay. 多項式時間と遅延を持つナイーブベイズや他の線形分類器を説明する。 0.66
In NeurIPS, 2020. 2020年、NeurIPS。 0.70
Alexey Ignatiev. アレクセイ・イグナティエフ。 0.45
Towards trustable explainable AI. 信頼できる説明可能なAIを目指す。 0.52
In IJCAI, pages 5154–5158, 2020. IJCAI』5154-5158, 2020年。 0.75
Joao Marques-Silva, Thomas Gerspacher, Martin Cooper, Alexey Ignatiev, and Nina Narodytska. Joao Marques-Silva、Thomas Gerspacher、Martin Cooper、Alexey Ignatiev、Nina Narodytska。 0.79
Explanations for 解説 0.40
英語(論文から抽出)日本語訳スコア
Andy Shih, Arthur Choi, and Adnan Darwiche. Andy Shih、Arthur Choi、Adnan Darwiche。 0.62
A symbolic approach to explaining bayesian network classifiers. ベイジアンネットワーク分類器を説明するためのシンボリックアプローチ。 0.68
In IJCAI, pages 5103–5111, 2018. IJCAI』5103-5111頁、2018年。 0.67
Andy Shih, Arthur Choi, and Adnan Darwiche. Andy Shih、Arthur Choi、Adnan Darwiche。 0.62
Compiling bayesian network classifiers into decision graphs. ベイズネットワーク分類器を決定グラフにコンパイルする。 0.72
In AAAI, pages 7966–7974, 2019. AAAI』7966-7974頁、2019年。 0.65
Andrew Silva, Matthew C. Gombolay, Taylor W. Killian, Ivan Dario Jimenez Jimenez, and Sung-Hyun Son. Andrew Silva、Matthew C. Gombolay、Taylor W. Killian、Ivan Dario Jimenez Jimenez、Sung-Hyun Son。 0.88
Optimization methods for interpretable differentiable decision trees applied to reinforcement learning. 解釈可能な微分可能決定木の最適化手法の強化学習への応用 0.71
In AISTATS, pages 1855–1865, 2020. AISTATS』1855-1865, 2020年。 0.73
Dylan Slack, Sophie Hilgard, Emily Jia, Sameer Singh, and Himabindu Lakkaraju. Dylan Slack, Sophie Hilgard, Emily Jia, Sameer Singh, Himabindu Lakkaraju 0.70
Fooling LIME and SHAP: adversarial attacks on post hoc explanation methods. LIME と SHAP: ポストホックな説明法に対する敵攻撃。 0.69
In AIES, pages 180–186, 2020. AIES、2020年180-186頁。 0.71
Arvind Srinivasan, Timothy Kam, Sharad Malik, and Robert K. Brayton. Arvind Srinivasan、Timothy Kam、Sharad Malik、Robert K. Brayton。 0.71
Algorithms for discrete function manipulation. 離散関数操作のためのアルゴリズム。 0.75
In ICCAD, pages 92–95, 1990. ICCAD、92-95頁、1990年。 0.78
UCI https://archive.ics. uci.edu/ml, 2020. UCI https://archive.ics. uci.edu/ml, 2020 0.54
Machine Learning Repository. 機械 学習 リポジトリ。 0.72
Paul E. Utgoff, Neil C. Berkman, and Jeffery A. Clouse. Paul E. Utgoff、Neil C. Berkman、Jeffery A. Clouse。 0.88
Decision tree induction based on efficient tree restructuring. 効率的なツリー再構成に基づく決定木インダクション。 0.76
Mach. Learn., 29(1):5–44, 1997. Mach 1997年、29(1):5-44頁。 0.57
Gilmer Valdes, Jos´e Marcio Luna, Eric Eaton, Charles B Simone II, Lyle H Ungar, and Timothy D Solberg. Gilmer Valdes, Jos ́e Marcio Luna, Eric Eaton, Charles B Simone II, Lyle H Ungar, Timothy D Solberg 0.80
MediBoost: a patient stratification tool for interpretable decision making in the era of precision medicine. MediBoost:精密医療時代の意思決定を解釈するための患者層化ツール。 0.68
Nature Scientific Reports, 6(1):37854, 2016. Nature Scientific Reports, 6(1):37854, 2016 0.81
Joaquin Vanschoren, Jan N. van Rijn, Bernd Bischl, and Luis Torgo. Joaquin Vanschoren、Jan N. van Rijn、Bernd Bischl、Luis Torgo。 0.72
OpenML: networked science in machine learning. OpenML: 機械学習におけるネットワーク科学。 0.90
SIGKDD Explorations, 15(2):49–60, 2013. SIGKDD Explorations, 15(2):49-60, 2013 0.93
Ingo Wegener. Ingo Wegener 0.55
Branching Programs and Binary Decision Diagrams. 分岐プログラムとバイナリ決定ダイアグラム。 0.64
SIAM, 2000. 2000年、SIAM。 0.67
Daniel S. Weld and Gagan Bansal. Daniel S. WeldとGagan Bansal。 0.82
The challenge of crafting intelligible intelligence. 知的な知性を創造する挑戦。 0.57
Commun. ACM, 62(6):70–79, 2019. Commun ACM, 62(6):70-79, 2019。 0.66
Feiyu Xu, Hans Uszkoreit, Yangzhou Du, Wei Fan, Dongyan Zhao, and Jun Zhu. Feiyu Xu, Hans Uszkoreit, Yangzhou Du, Wei Fan, Dongyan Zhao, Jun Zhu 0.69
Explainable AI: A brief survey on history, research areas, approaches and challenges. 説明可能なAI: 歴史、研究領域、アプローチ、課題に関する簡単な調査。 0.76
In NLPCC, pages 563–574, 2019. NLPCC、2019年563-574頁。 0.70
monotonic classifiers. In ICML, 2021. モノトニック分類器 ICML、2021年。 0.61
In press. Available from https://arxiv.org/ab s/2106.00154. 報道。 https://arxiv.org/ab s/2106.00154から利用可能。 0.34
Tim Miller. Explanation in artificial intelligence: Insights from the social sciences. ティム・ミラー。 人工知能における説明:社会科学からの洞察。 0.60
Artif. Intell., 267:1–38, 2019. Artif 267:1-38, 2019。 0.62
Christoph Molnar. Christoph Molnar 0.59
Interpretable Machine Learning. 解釈可能な機械学習。 0.70
2019. https://christophm.g ithub.io/interpretab le-ml-book/. https://christophm.g ithub.io/interpretab le-ml-book/. 2019 0.34
Gr´egoire Montavon, Wojciech Samek, and Klaus-Robert M¨uller. Gr ́egoire Montavon, Wojciech Samek, Klaus-Robert M suller 0.80
Methods for interpreting and understanding deep neural networks. ディープニューラルネットワークの解釈と理解の方法。 0.69
Digit. Signal Process., 73:1–15, 2018. デジタル。 Signal Process., 73:1-15, 2018。 0.61
Christophe Mues, Bart Baesens, Craig M. Files, and Jan Vanthienen. Christophe Mues、Bart Baesens、Craig M. Files、Jan Vanthienen。 0.74
Decision diagrams in machine learning: an empirical study on real-life credit-risk data. 機械学習における意思決定図:実生活の信用リスクデータに関する実証的研究。 0.68
Expert Syst. Appl., 27(2):257–264, 2004. 専門家。 2004年、27(2):257-264頁。 0.60
Nina Narodytska, Leonid Ryzhyk, Igor Ganichev, and Soner Sevinc. Nina Narodytska、Leonid Ryzhyk、Igor Ganichev、Soner Sevinc。 0.64
BDD-based algorithms for packet classification. BDDベースのパケット分類アルゴリズム。 0.77
In FMCAD, pages 64–68, 2019. FMCAD』64-68頁、2019年。 0.72
Nina Narodytska, Aditya A. Shrotri, Kuldeep S. Meel, Alexey Ignatiev, and Jo˜ao Marques-Silva. Nina Narodytska、Aditya A. Shrotri、Kuldeep S. Meel、Alexey Ignatiev、Jo ao Marques-Silva。 0.89
Assessing heuristic machine learning explanations with model counting. モデルカウントによるヒューリスティック機械学習の説明の評価 0.75
In SAT, pages 267–278, 2019. SAT』267-278頁、2019年。 0.74
Arlindo L. Oliveira and Alberto L. Sangiovanni-Vincente lli. Arlindo L. OliveiraとAlberto L. Sangiovanni-Vincente lli。 0.77
Using the minimum description length principle to infer reduced ordered decision graphs. 最小記述長原理を用いて、縮小順序決定グラフを推論する。 0.74
Mach. Learn., 25(1):23–50, 1996. Mach 背番号25(1):23-50、1996。 0.56
Jonathan J. Oliver. ジョナサン・J・オリバー 0.61
Decision graphs – an extension of decision trees. 決定グラフ - 決定木の拡張。 0.58
Technical Report 92/173, Monash University, 1992. 1992年、モナシュ大学92/173号。 0.54
Randal S. Olson, William La Cava, Patryk Orzechowski, Ryan J. Urbanowicz, and Jason H. Moore. Randal S. Olson、William La Cava、Patryk Orzechowski、Ryan J. Urbanowicz、Jason H. Moore。 0.84
PMLB: a large benchmark suite for machine learning evaluation and comparison. PMLB: 機械学習の評価と比較のための大規模なベンチマークスイート。 0.71
BioData Mining, 10(1):36, 2017. BioData Mining, 10(1):36, 2017 0.78
Ram´on Pino P´erez and Carlos Uzc´ategui. Pino P'erez and Carlos Uzc ́ategui 0.81
Preferences and explanations. Artif. 好みと説明。 Artif 0.55
Intell., 149(1):1–30, 2003. Intell., 149(1):1–30, 2003。 0.87
Raymond Reiter. レイモンド・ライター。 0.55
A theory of diagnosis from first principles. 第一原理からの診断の理論。 0.82
Artif. Intell., 32(1):57–95, 1987. Artif 原著『32(1):57-95, 1987』。 0.54
Marco T´ulio Ribeiro, Sameer Singh, and Carlos Guestrin. Marco T ́ulio Ribeiro、Sameer Singh、Carlos Guestrin。 0.75
Model-agnostic interpretability of machine learning. 機械学習のモデル非依存解釈性。 0.61
CoRR, abs/1606.05386, 2016. CoRR, abs/1606.05386, 2016 0.76
Marco T´ulio Ribeiro, Sameer Singh, and Carlos Guestrin. Marco T ́ulio Ribeiro、Sameer Singh、Carlos Guestrin。 0.75
”why should I trust you?”: Explaining the predictions of any classifier. なぜ私はあなたを信頼すべきなのか?」: 分類器の予測を説明する。 0.71
In KDD, pages 1135–1144, 2016. KDD』1135-1144頁、2016年。 0.68
Marco T´ulio Ribeiro, Sameer Singh, and Carlos Guestrin. Marco T ́ulio Ribeiro、Sameer Singh、Carlos Guestrin。 0.75
Anchors: High-precision model-agnostic explanations. Anchors: 高精度モデルに依存しない説明。 0.52
In AAAI, pages 1527–1535, 2018. AAAI』1527-1535頁、2018年。 0.62
Cynthia Rudin. Cynthia Rudin 0.59
Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. 高い利害判断のためのブラックボックス機械学習モデルの説明を止めて、代わりに解釈可能なモデルを使用する。 0.61
Nature Machine Intelligence, 1(5):206–215, 2019. Nature Machine Intelligence, 1(5):206–215, 2019。 0.94
Wojciech Samek, Gr´egoire Montavon, Andrea Vedaldi, Lars Kai Hansen, and Klaus-Robert M¨uller, editors. Wojciech Samek, Gr ́egoire Montavon, Andrea Vedaldi, Lars Kai Hansen, Klaus-Robert M suller, 編集者。 0.87
Explainable AI: Interpreting, Explaining and Visualizing Deep Learning. 説明可能なAI: ディープラーニングの解釈、説明、可視化。 0.61
Springer, 2019. スプリンガー、2019年。 0.53
Murray Shanahan. Prediction is deduction but explanation is abduction. マレー・シャナハン 予測は推論ですが、説明は推論です。 0.42
In IJCAI, pages 1055–1060, 1989. IJCAI』1055-1060頁、1989年。 0.69
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。