論文の概要、ライセンス

# (参考訳) 関連集合による効率的な説明 [全文訳有]

Efficient Explanations With Relevant Sets ( http://arxiv.org/abs/2106.00546v1 )

ライセンス: CC BY 4.0
Yacine Izza, Alexey Ignatiev, Nina Narodytska, Martin C. Cooper, Joao Marques-Silva(参考訳) 最近の研究は、与えられた入力に対する分類器による予測の確率論的説明として$\delta$-relevant inputs (またはset)を提案した。 $\delta$-relevant 集合は、(モデル非依存の)アンカーと(モデル-正確な) PI- の説明を関連付けるのに役立つので重要である。 残念なことに、最小サイズの$\delta$-relevant集合の計算は${NP}^{PP}$に対して完備であり、その計算は実際はほとんど実現不可能である。 本稿では,$\delta$-関係集合の実用的限界に取り組むための解について検討する。 まず、本論文は部分最小集合の計算を交互に検討する。 第2に、決定木などを含む分類器の具体的家族について研究する。 これらの場合、本論文はnpにおける部分集合最小$\delta$-関係集合の計算がnpオラクルへの呼び出しの多項式数で解くことができることを示す。 実験による評価は,提案手法と,本論文で研究した分類器の具体的な場合のヒューリスティックな説明器との比較を行い,提案手法の有効性を確認した。

Recent work proposed $\delta$-relevant inputs (or sets) as a probabilistic explanation for the predictions made by a classifier on a given input. $\delta$-relevant sets are significant because they serve to relate (model-agnostic) Anchors with (model-accurate) PI- explanations, among other explanation approaches. Unfortunately, the computation of smallest size $\delta$-relevant sets is complete for ${NP}^{PP}$, rendering their computation largely infeasible in practice. This paper investigates solutions for tackling the practical limitations of $\delta$-relevant sets. First, the paper alternatively considers the computation of subset-minimal sets. Second, the paper studies concrete families of classifiers, including decision trees among others. For these cases, the paper shows that the computation of subset-minimal $\delta$-relevant sets is in NP, and can be solved with a polynomial number of calls to an NP oracle. The experimental evaluation compares the proposed approach with heuristic explainers for the concrete case of the classifiers studied in the paper, and confirms the advantage of the proposed solution over the state of the art.
公開日: Tue, 1 Jun 2021 14:57:58 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
1 ] G L . 1 ] G L。 0.81
s c [ 1 v 6 4 5 0 0 sc [ 1 v 6 4 5 0 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Efficient Explanations With Relevant Sets 関連集合による効率的な説明 0.63
Yacine Izza Alexey Ignatiev ヤシイザ アレクセイ・イグナチエフ 0.50
Université de Toulouse, Toulouse, France トゥールーズ大学、トゥールーズ大学、フランス 0.63
Monash University, Melbourne, Australia オーストラリアのメルボルンにあるモナッシュ大学 0.63
yacine.izza@univ-tou louse.fr yacine.izza@univ-tou louse.fr 0.47
alexey.ignatiev@mona sh.edu alexey.ignatiev@mona sh.edu 0.59
Nina Narodytska ニーナ・ナロディツカ 0.56
VMware Research, CA, USA nnarodytska@vmware.c om VMware Research, CA, USA nnarodytska@vmware.c om 0.98
Martin C. Cooper Martin C. Cooper 0.94
Université Paul Sabatier, IRIT, Toulouse, France ポール・サバティエ大学、IRIT、トゥールーズ、フランス 0.72
martin.cooper@irit.f r martin.cooper@irit.f r 0.59
Joao Marques-Silva Joao Marques-Silva 0.71
IRIT, CNRS, Toulouse, France フランスのトゥールーズ、IRIT、CNRS 0.63
joao.marques-silva@i rit.fr joao.marques-silva@i rit.fr 0.47
Abstract Recent work proposed δ-relevant inputs (or sets) as a probabilistic explanation for the predictions made by a classifier on a given input. 概要 最近の研究は、与えられた入力に対する分類器による予測の確率論的説明としてδ関係入力(または集合)を提案した。 0.56
δ-relevant sets are significant because they serve to relate (model-agnostic) Anchors with (model-accurate) PI-explanations, among other explanation approaches. δ-関連集合は、(モデル非依存の)アンカーと(モデル-正確な)PI-説明(英語版)を関連付けるために重要である。 0.52
Unfortunately, the computation of smallest size δ-relevant sets is complete for NPPP, rendering their computation largely infeasible in practice. 残念なことに、最小サイズのδ-関連集合の計算はNPPPに完全であり、その計算は実際には実現不可能である。
訳抜け防止モード: 残念ながら、最小サイズのδ-関連集合の計算はNPPPに対して完備である。 実際の計算は不可能です
0.65
This paper investigates solutions for tackling the practical limitations of δ-relevant sets. 本稿ではδ関連集合の実用的限界に対処するための解について検討する。 0.51
First, the paper alternatively considers the computation of subset-minimal sets. まず、本論文は部分最小集合の計算を交互に検討する。 0.51
Second, the paper studies concrete families of classifiers, including decision trees among others. 第2に、決定木などを含む分類器の具体的家族について研究する。 0.58
For these cases, the paper shows that the computation of subset-minimal δ-relevant sets is in NP, and can be solved with a polynomial number of calls to an NP oracle. これらの場合、本論文は部分集合-最小 δ-関係集合の計算がnp にあり、np オラクルへの呼び出しの多項式数で解くことができることを示す。
訳抜け防止モード: これらの場合、この論文は、最小δ-関連集合の部分集合の計算が NP に含まれることを示す。 NPオラクルへの多項式番号で解決できる。
0.74
The experimental evaluation compares the proposed approach with heuristic explainers for the concrete case of the classifiers studied in the paper, and confirms the advantage of the proposed solution over the state-of-the-art. 実験により,提案手法と本論文で研究した分類器の具体的な場合のヒューリスティックな説明器との比較を行い,提案手法の有効性を確認した。 0.76
1 Introduction Recent work proposed δ-relevant inputs (or sets) [42], which represent probabilistic explanations for the predictions made by a classifier given some input. はじめに 最近の研究は δ-関係入力(または集合) [42] を提案し、これはある入力が与えられた分類器によってなされる予測の確率論的説明を表している。 0.58
δ-relevant sets were shown to generalize both Anchors [33] and PI-explanations [36], thus revealing a connection between model-agnostic explanations (e g Anchors) and model-accurate explanations (e g PI-explanations). δ-関連集合はアンカー[33]とPI-説明[36]の両方を一般化し、モデルに依存しない説明(例えばアンカー)とモデル-正確な説明(例えばPI-説明)の関連を明らかにする。 0.71
Moreover, δrelevant sets offer a natural solution for increasing the interpretability of PI-explanations, at the cost of obtaining intuitive explanations that hold in most, but not all, points in feature space. さらに δrelevant 集合は、機能空間の点のほとんどだがすべてではない直感的な説明を得るコストで、pi-explanation の解釈可能性を高める自然な解を与える。 0.68
A formidable downside of δ-relevant sets is that their computation is hard for NPPP. δ-関連集合の重大な欠点は、それらの計算がNPPPにとって難しいことである。 0.57
This signifies that for most practical examples, the time for computing minimum δ-relevant sets will be prohibitive in practice. これは、ほとんどの実例において、最小 δ-関係集合を計算する時間は実際に禁止されることを意味する。 0.60
To address the computational complexity of finding minimum δ-relevant sets, a number of solutions can be envisioned. 最小δ-関連集合を見つけることの計算複雑性に対処するために、多くの解が想定される。
訳抜け防止モード: 最小 δ-関係集合を見つける計算の複雑さに対処するために 多くの解決策が考えられる。
0.80
A first solution is the approximate computation of δ-relevant sets. 最初の解は δ-関係集合の近似計算である。 0.73
However, for this solution, the formal guarantees offered by δ-relevant sets may no longer hold. しかし、この解に対して δ-関係集合によって与えられる形式的保証はもはや成立しない。 0.48
A second solution is to identify which ML models allow for the efficient computation of δ-relevant sets. 第2の解決策は、δ関連集合の効率的な計算を可能にするMLモデルを特定することである。 0.65
Finally, a third solution is to investigate possible ways of relaxing the original definition of δ-relevant sets [42]. 最後に、第3の解は δ-関係集合 [42] の元の定義を緩和する方法を検討することである。 0.70
This paper addresses the second and third solutions listed above. 本稿では、上記に挙げた第2および第3の解について述べる。 0.51
First, the paper proposes alternative definitions of δ-relevant sets. まず, δ-関係集合の代替定義を提案する。 0.72
Second, the paper analyzes the computation of (different variants of) δ-relevant sets in the case of decision trees (DTs). 第2に、決定木(DT)の場合のδ関連集合の(異なる変種)の計算を解析する。 0.64
Preprint. Under review. プレプリント。 レビュー中。 0.63
英語(論文から抽出)日本語訳スコア
Although generally regarded as interpretable [7, 34, 25], recent work showed that DTs can exhibit explanation redundancy [3, 17], i.e. 一般に[7, 34, 25]と解釈されるが,近年の研究ではDTが説明冗長性[3, 17]を示すことが示されている。 0.73
there exist DTs containing paths that are (possibly arbitrarily) longer than a PI-explanation [36]. PI-Explanation [36] よりも長い(任意に)パスを含むDTが存在する。 0.79
Furthermore, existing experimental evidence confirms that explanation redundancy is observed in DTs learned with state-of-the-art DT learners [17]. さらに,現状のDT学習者 [17] から学んだDTにおいて,説明冗長性が観察されることが確認された。 0.70
Thus, even in the case of DTs, the computation of δ-relevant sets is of interest when the goal is to improve the interpretability of ML models. したがって、DT の場合においても δ-関連集合の計算は、ML モデルの解釈可能性を改善することが目的であるときに興味深い。 0.76
The main results of the paper can thus be summarized as follows. したがって、本論文の主な成果は以下の通りである。 0.66
First, the paper shows that, for the decision version of computing a minimum size δ-relevant set (i.e. まず、最小サイズ δ-関係集合(すなわち、最小サイズ δ-関係集合)を計算する決定版について述べる。 0.59
the problem studied in recent work [42]), is in NP in the case of DTs. 最近の研究で研究された問題[42])は、DTの場合NPである。 0.74
The proof of this result offers a solution for computing a minimum-size δ-relevant set, in the case of DTs, by using maximum satisfiability modulo theories (MaxSMT) [4, 6]. この結果の証明は、最大満足度変調理論(MaxSMT) [4, 6] を用いて、DT の場合、最小サイズのδ-関連集合を計算するための解を提供する。 0.83
Second, the paper shows that, in the case of DTs, a relaxed definition of δ-relevant set enables the computation of (relaxed) subset-minimal δ-relevant sets in polynomial time. 第二に、DT の場合、δ-関連集合の緩和された定義は多項式時間における(緩和された)部分集合-最小δ-関連集合の計算を可能にすることを示す。 0.64
Third, the paper shows that ML models based on knowledge compilation (KC) languages [11], including those studied in recent papers on XAI for KC languages [36, 37, 10, 2, 1], the computation of (relaxed) subset-minimal δ-relevant sets is also in polynomial time. 第3に、知識コンパイル(KC)言語 [11] に基づくMLモデルは、KC言語 [36, 37, 10, 2, 1] の XAI に関する最近の論文で研究されているものを含む、多項式時間における部分集合-最小δ-関連集合の計算についても示している。 0.83
Fourth, the paper shows that recently proposed duality results for explanations [15, 13], which in practice enable the enumeration of explanations, can be extended to the setting of δ-relevant sets. 第4に,最近提案された説明文 [15, 13] の双対性の結果は,実際に説明文の列挙を可能にするものであり,δ-関連集合の設定にまで拡張可能であることを示す。 0.70
Related work. The growing adoption of ML in different settings motivates the recent interest in explainability [27, 12, 35, 20, 43, 26]. 関連作品。 異なる設定でのMLの採用の増加は、最近の説明可能性への関心[27, 12, 35, 20, 43, 26]を動機付けている。
訳抜け防止モード: 関連作品。 異なる設定でのMLの採用の増加は、最近の説明可能性への関心を動機付けている[27]。 12 , 35 , 20 , 43 , 26 ] .
0.68
Well-known approaches for explaining ML-models are model-agnostic and based on heuristic solutions [32, 21, 33]. MLモデルを説明するためのよく知られたアプローチはモデルに依存しず、ヒューリスティックな解 [32, 21, 33] に基づいている。
訳抜け防止モード: ML - モデルはモデルである - 不可知である。 ヒューリスティック解[32, 21, 33]に基づいて
0.68
These approaches offer no formal guarantees of rigor, and practical limitations have been reported in recent years [8, 28, 38, 19]. これらのアプローチでは厳格さの正式な保証はなく,近年は実用上の限界が報告されている [8, 28, 38, 19]。 0.81
More recently, model-accurate non-heuristic approaches to explainability have been investigated [36, 15, 10, 13, 2, 1, 22]. 近年,説明可能性に対するモデル正確な非ヒューリスティックなアプローチが研究されている [36,15,10,13,1,2,22]。 0.77
These non-heuristic approaches are characterized by formal guarantees of rigor, e g explanations are valid in any point in feature space. これらの非ヒューリスティックなアプローチは厳密な形式的保証によって特徴づけられ、例えば、説明は特徴空間の任意の点において有効である。 0.55
Unfortunately, non-heuristic methods also exhibit a number of drawbacks, including for example scalability, explanation size, and the inability to compute explanations with probabilistic guarantees. 残念なことに、非ヒューリスティックな手法には、スケーラビリティ、説明サイズ、確率的保証で説明を計算できないことなど、多くの欠点がある。 0.57
Recent work [42] revealed ways of relating heuristic and non-heuristic explanations. 最近の研究[42]は、ヒューリスティックおよび非ヒューリスティックな説明を関連付ける方法を明らかにしている。 0.45
Our paper builds on this recent work. 私たちの論文はこの最近の研究に基づいている。 0.44
Organization. The paper is organized as follows. 組織。 論文は以下の通り整理される。 0.65
Section 2 introduces the notation and definitions used in the rest of the paper. 第2節では、残りの論文で使われる表記と定義を紹介する。 0.68
Section 3 discusses δ-relevant sets and a number of alternative definitions. 第3節ではδ関連集合と多くの代替定義について論じている。 0.57
Section 4 delves into duality between different kinds of explanations when δ-relevant sets are considered. 第4節 δ-関連集合を考えるとき、異なる種類の説明の間の双対性を考える。 0.58
Section 5 discusses the computation of cardinality-minimal and subset-minimal δ-relevant sets in the case of decision trees. 第5節では、決定木の場合の濃度最小および部分最小δ関係集合の計算について論じる。 0.66
Section 6 presents experimental results for computing δ-relevant sets in the case of DTs. 第6節はDTの場合のδ関連集合の計算実験結果を示す。 0.81
Finally, Section 7 concludes the paper. 最後に、第7節がその論文を締めくくる。 0.58
2 Preliminaries Classification problems & formal explanations. 予科2 分類問題と公式な説明。 0.64
This paper considers classification problems, which are defined on a set of features (or attributes) F = {1, . 本稿では,特徴(あるいは属性)F = {1, の集合上で定義される分類問題について考察する。 0.81
. . , m} and a set of classes K = {c1, c2, . . . , m} およびクラス K = {c1, c2, の集合。 0.83
. . , cK}. Each feature i ∈ F takes values from a domain Di. . . 、cK。 各特徴 i ∈ f は整域 di から値を取る。 0.76
In general, domains can be boolean, integer or real-valued. 一般に、ドメインはブール、整数、あるいは実数値でもよい。 0.72
Feature space is defined as F = D1 × D2 × . 特徴空間は F = D1 × D2 × と定義される。 0.83
. . × Dm = {0, 1}m. For boolean domains, Di = {0, 1} = B, i = 1, . . . × Dm = {0, 1}m. ブール領域では、Di = {0, 1} = B, i = 1, となる。 0.85
. . , m, and F = Bm. . . ,m,F = Bm。 0.77
The notation x = (x1, . 記法 x = (x1, )。 0.77
. . , xm) denotes an arbitrary point in feature space, where each xi is a variable taking values from Di. . . , xm) は特徴空間の任意の点を表し、各 xi は Di から値を取る変数である。 0.84
The set of variables associated with features is X = {x1, . 特徴に関連する変数の集合は X = {x1, である。 0.84
. . , xm}. . . xm} である。 0.83
Moreover, the notation v = (v1, . さらに、表記 v = (v1, ) である。 0.75
. . , vm) represents a specific point in feature space, where each vi is a constant representing one concrete value from Di = {0, 1}. . . , vm) は特徴空間の特定の点を表し、各 vi は Di = {0, 1} から 1 つの具体的な値を表す定数である。 0.83
An instance (or example) denotes a pair (v, c), where v ∈ F and c ∈ K. (We also use the term instance to refer to v, leaving c implicit.) 例(あるいは例)は対 (v, c) を意味し、ここで v ∈ F と c ∈ K が成り立つ。
訳抜け防止モード: 例 (または例 ) は対 (v,) を表す。 ここで v ∈ F と c ∈ K が成り立つ。 また、c を暗黙に残して v を指すためにインスタンスという用語も使用します。
0.87
An ML classifier M is characterized by a classification function κ that maps feature space F into the set of classes K, i.e. ML分類器Mは、特徴空間FをクラスKの集合にマッピングする分類関数κによって特徴づけられる。 0.85
κ : F → K. We now define formal explanations. κ : f → k 形式的な説明を定義する。 0.81
Prime implicant (PI) explanations [36] denote a minimal set of literals (relating a feature value xi and a constant vi ∈ Di that are sufficient for the prediction1. 素インプリカント (PI) の説明 [36] は、予測1に十分である最小のリテラル(特徴値xi と定数 vi ∈ Di に関連する)の集合を表す。 0.71
Formally, given v = (v1, . 形式的には v = (v1, ) である。 0.63
. . , vm) ∈ F with κ(v) = c, a PI-explanation (AXp) is any minimal subset X ⊆ F such that, . . κ(v) = c, a PI-explanation (AXp) を持つ , vm) ∈ F は任意の極小部分集合 X > F である。 0.85
∀(x ∈ F).h^i∈X s(x ∈ f),h^ihtmlx 0.55
(xi = vi)i →(κ(x) = c) (xi = vi)i →(κ(x) = c) 0.85
(1) 1PI-explanations are related with abduction, and so are also referred to as abductive explanations (AXp) [14]. (1) 1PI説明は誘拐と関係しており、誘引的説明(AXp) [14] とも呼ばれる。 0.76
More recently, PI-explanations have been studied from a knowledge compilation perspective [2, 1], but also in terms of their computational complexity [3]. 近年,知識コンパイルの観点からPI説明が研究されている [2, 1] が,計算複雑性の観点からも研究されている [3]。 0.77
2 2 0.85
英語(論文から抽出)日本語訳スコア
AXps can be viewed as answering a ‘Why?’ question, i.e. why is some prediction made given some point in feature space. AXpsは‘なぜ? なぜ何かの予測が 特徴空間のどこかに 向けられているのか 0.40
A different view of explanations is a contrastive explanation [24], which answers a ‘Why Not?’ question, i.e. 異なる説明の見方は対照的な説明 [24] であり、これは 'why not?' という問いに答える。 0.79
which features can be changed to change the prediction. 予測を変えるために 機能を変更することができます 0.76
A formal definition of contrastive explanation is proposed in recent work [13]. 対照的な説明の形式的定義が最近の研究で提案されている[13]。 0.68
Given v = (v1, . v = (v1, )。 0.80
. . , vm) ∈ F with κ(v) = c, a CXp is any minimal subset Y ⊆ F such that, . . κ(v) = c であるような , vm) ∈ F に対し、CXp は任意の極小部分集合 Y > F である。 0.82
∃(x ∈ F).^j∈F \Y x ∈ f),^jhtmlf \y である。 0.76
(xj = vj) ∧ (κ(x) 6= c) (xj = vj) ... (κ(x) 6= c) 0.90
(2) Building on the results of R. Reiter in model-based diagnosis [31], [13] proves a minimal hitting set (MHS, or hypergraph transversal [5]) duality relation between AXps and CXps, i.e. (2) R. Reiter によるモデルベース診断 [31] の結果に基づいて,[13] は AXps と CXps の間の最小ヒットセット (MHS,Hypergraph transversal [5]) の双対関係を証明している。 0.85
AXps are MHSes of CXps and vice-versa. AXps は CXps と vice-versa の MHS である。 0.74
Throughout the paper, (M)HS(Z) denote the set of (minimal) hitting sets of Z. 論文全体を通して、(M)HS(Z) は Z の(最小)打撃集合の集合を表す。 0.78
δ-relevant sets were recently proposed [42] as a formalization of explanation that Relevant sets. δ関係集合は、関連する集合に関する説明の形式化として最近提案された [42] 。 0.65
enables relating different types of explanation [42]. 様々なタイプの説明[42]を可能とします。 0.69
We briefly overview the definition of relevant set and associated definitions. 関連する集合の定義と関連する定義を簡潔に概説する。 0.74
The assumptions regarding the probabilities of logical propositions are those made in earlier work [42]. 論理命題の確率に関する仮定は、初期の研究[42]でなされたものである。 0.71
Let Prx(A(x)) denote the probability of some proposition A defined on the vector of variables x = (x1, . Prx(A(x)) は変数 x = (x1, ) のベクトル上で定義される命題 A の確率を表す。 0.82
. . , xm), i.e. . . , xm), i。 0.79
Prx(A(x)) = |{x∈F:A(x)=1}| Prx(A(x)) = |{x∂F:A(x)=1}| 0.94
|{x∈F}| |{x linkedinf}| 0.76
, Prx(A(x) | B(x)) = |{x∈F:A(x)=1∧B(x)=1}| , Prx(A(x) | B(x)) = |{x$F:A(x)=1\B(x)=1}| 0.90
|{x∈F:B(x)=1)}| |{x-F:B(x)=1)}| 0.92
(3) Definition 1 (δ-relevant set [42]). (3) 定義 1 (δ-関連集合 [42])。 0.77
Let κ : Bm → K = B, v ∈ Bm, κ(v) = c ∈ B, and δ ∈ [0, 1]. κ : Bm → K = B, v ∈ Bm, κ(v) = c ∈ B, δ ∈ [0, 1] とする。
訳抜け防止モード: κ : Bm → K = B, v ∈ Bm とする。 κ(v ) = c ∈ B であり、δ ∈ [0, 1 ] である。
0.92
S ⊆ F is a δ-relevant set for κ and v if, S {\displaystyle S} は κ と v {\displaystyle v} に対する δ-関連集合である。 0.38
Prx(κ(x) = c | xS = vS) ≥ δ Prx(κ(x) = c | xS = vS) ≥ δ 0.85
(4) (where the restriction of x to the variables with indices in S is represented by xS = (xi)i∈S ). (4) (ここで、S の指数を持つ変数に対する x の制限は xS = (xi)i∂S で表される)。 0.82
(Observe that Prx(κ(x) = c | xS = vS) is often referred to as the precision of S [33, 28].) (Prx(κ(x) = c | xS = vS) はしばしば S[33, 28] の精度と呼ばれる。) 0.72
Thus, a δ-relevant set represents a set of features which, if fixed to some pre-defined value (taken from a reference vector v) ensure that the probability of the prediction being the same as the one for v is no less than δ. Definition 2 (Min-δ-relevant set). したがって、δ-関連集合は、ある事前定義された値(参照ベクトル v から取られる)に固定されたとき、予想の確率が v の値と同じであることを保証する一連の特徴を表す。
訳抜け防止モード: したがって、δ-関連集合は、その特徴の集合を表す。 ある事前定義された値に固定された場合(参照ベクトル v から取られる) v の予想の確率が δ 以下であることを保証する。 定義 2 (Min - δ - 関連する集合 )。
0.73
Given κ, v ∈ Bm, and δ ∈ [0, 1], find the smallest k, such that there exists S ⊆ F , with |S| ≤ k, and S is a δ-relevant set for κ and v. κ, v ∈ Bm, δ ∈ [0, 1] が与えられたとき、最小の k が存在して、|S| ≤ k が存在し、S は κ と v に対する δ-関連集合である。 0.81
With the goal of proving the computational complexity of finding a minimum-size set of features that is a δ-relevant set, earlier work [42] restricted the definition to the case where κ is represented as a boolean circuit. δ関係集合である最小サイズの特徴の集合を見つけるという計算の複雑さを証明するために、初期の作業 [42] では、κ がブール回路として表現される場合に定義を制限した。 0.79
(Boolean circuits were restricted to propositional formulas defined using the operators ∨, ∧ and ¬, and using a set of variables representing the inputs; this explains the choice of inputs over sets in earlier work [42].) (boolean回路は、演算子 s, s, s を用いて定義された命題式に制限され、入力を表す変数の集合を用いている(これは以前の仕事 [42] における集合上の入力の選択を説明する)。 0.74
Observe that Definition 2 imposes no such restriction on the representation of the classifier, i.e. 定義 2 は分類器の表現にそのような制限を課さない。 0.62
the logical representation of κ need not be a boolean circuit. κ の論理表現はブール回路である必要はない。 0.79
Decision trees. A decision tree T is a directed acyclic graph having at most one path between every pair of nodes. 決定木。 決定木 T は、各ノード間の少なくとも1つの経路を持つ有向非巡回グラフである。 0.68
T has a root node, characterized by having no incoming edges. T にはルートノードがあり、エッジが入らないのが特徴である。 0.69
All other nodes have one incoming edge. 他のノードはすべてひとつのエッジを持つ。 0.70
We consider univariate decision trees where each non-terminal node is associated with a single feature xi. 各非終端ノードが1つの特徴 xi に関連付けられている一変量決定木を考える。 0.67
Each edge is labeled with a literal, relating a feature (associated with the edge’s starting node) with some values (or range of values) from the feature’s domain. 各エッジはリテラルでラベル付けされ、機能ドメインからいくつかの値(あるいは値の範囲)を持つ(エッジの開始ノードに関連する)機能に関連している。 0.78
We will consider literals to be of the form xi ∈ Ei. 我々はリテラルを xi ∈ Ei の形で考える。 0.62
xi is a variable that denotes the value taken by feature i, whereas Ei ⊆ Di is a subset of the domain of feature i. xi は特徴 i によって取られる値を表す変数であり、Ei は特徴 i の領域の部分集合である。 0.68
The type of literals used to label the edges of a DT allows the representation of the DTs generated by a wide range of decision tree learners (e g [41]). DTのエッジをラベル付けするために使われるリテラルの種類は、幅広い決定木学習者によって生成されるDTの表現を可能にする(例[41])。 0.80
It is assumed that for any v ∈ F there exists exactly one path in T that is consistent with v. By consistent we mean that the literals associated with the path are satisfied (or consistent) with the feature values in v. 任意の v ∈ F に対して、T 内にちょうど 1 つの経路が v と一致すると仮定される。
訳抜け防止モード: 任意の v ∈ f に対して、t に一致するちょうど1つの経路が存在すると仮定される。 v. 一貫性は パスに関連付けられたリテラルは、vの機能値で満足(または一貫性)される。
0.79
Running example. Throughout the paper, we will consider the decision tree shown in Figure 1 as the running example2. 実行例。 論文全体を通して、図1に示す決定木を、実行中の例2と見なします。 0.71
Example 1. We consider the example DT from Figure 1. 例1。 図1のDTの例を検討します。 0.76
For this example and for simplicity, all features are binary with Di = {0, 1}. この例と単純性のために、すべての機能は Di = {0, 1} のバイナリである。 0.75
It is also assumed that Pr(xi = 0) = Pr(xi = 1) = 1/2, which we represent respectively by α and β, to allow other values to be considered. また、pr(xi = 0) = pr(xi = 1) = 1/2 は α と β でそれぞれ表現されるので、他の値も考慮できると仮定される。 0.70
. Some of the paths 2Although the running example considers boolean features (with Di = {0, 1}) and boolean classification, similar conclusions would be obtained if we were to consider instead real-valued features, e g having Di = [0, 1]. . いくつかの道は 2 実行中の例では(di = {0, 1})boolean特徴とboolean分類を考えるが、di = [0, 1] を持つ実数値特徴を検討すれば同様の結論が得られる。 0.74
3 3 0.85
英語(論文から抽出)日本語訳スコア
x1 1 p(1) 0 2 x1 1 p(1) 0 2 0.83
p(2) ¬p(1) x2 p(2) p(1) x2 0.78
3 ¬p(2) ¬p(5) 3 p(2) ~p(5) 0.80
p(3) x3 5 ¬p(3) p(3) x3 5 p(3) 0.80
x4 9 ¬p(4) x4 9 ~p(4) 0.82
x9 p(5) p(9) x9 p(5) p(9) 0.83
15 ¬p(9) 1 21 15 ~p(9) 1 21 0.85
0 22 1 23 x5 0 22 1 23 x5 0.83
8 ¬p(5) p(4) 8 ~p(5) p(4) 0.85
¬p(6) 1 13 p(6) である。 1 13 0.70
¬p(5) x5 14 ~p(5) x5 14 0.82
1 19 p(7) x8 1 19 p(7) x8 0.83
p(6) x7 28 p(6) x7 28 0.83
¬p(6) 1 29 p(6) である。 1 29 0.70
x6 20 ¬p(7) x6 20 ~p(7) 0.83
1 33 x5 4 p(6) 1 33 x5 4 p(6) 0.83
1 11 p(5) x6 1 11 p(5) x6 0.83
6 ¬p(7) 1 17 6 ~p(7) 1 17 0.85
¬p(7) x8 1 7 ~p(7) x8 1 7 0.83
p(6) x7 18 p(6) x7 18 0.83
p(5) x6 12 p(5) x6 12 0.83
p(7) 1 27 ¬p(6) p(7) 1 27 p(6) である。 0.75
x7 10 p(7) x7 10 p(7) 0.83
x8 p(8) 16 x8 p(8) 16 0.83
¬p(8) 0 24 ~p(8) 0 24 0.84
1 25 p(8) 26 1 25 p(8) 26 0.85
¬p(8) 0 30 ~p(8) 0 30 0.84
1 31 p(8) 32 1 31 p(8) 32 0.85
¬p(8) 0 34 ~p(8) 0 34 0.84
1 35 Domains Feature Range 1 35 藩 特徴 範囲 0.67
i = 1, . i = 1 である。 0.87
. . , 9 Di = {0, 1} . . , 9 Di = {0, 1} 0.85
Predicates Pred. Def. 述語 プレド。 Def 0.57
Pr(·) p(i) xi = 0 Pr(p(i)) = 1/2 = α ¬p(i) xi = 1 Pr(¬p(i)) = 1/2 = β Pr(·) p(i) xi = 0 pr(p(i)) = 1/2 = α s p(i) xi = 1 pr(p(i)) = 1/2 = β 0.87
Paths in DT Q1 = {1, 2} Q2 = {1, 3, 4, 6, 10, 16, 24} · · · Q5 = {1, 3, 5, 9, 15, 22} P1 = {1, 3, 4, 6, 10, 16, 25} · · · P13 = {1, 3, 5, 9, 15, 23} DTのパス Q1 = {1, 2} Q2 = {1, 3, 4, 6, 10, 16, 24} · · · Q5 = {1, 3, 5, 9, 15, 22} P1 = {1, 3, 4, 6, 10, 16, 25} · · · P13 = {1, 3, 5, 9, 15, 23} 0.82
in the DT are also shown. DTでも示されています。 0.68
Moreover, let the instance be v = (v1, v2, v3, v4, v5, v6, v7, v8, v9) = (1, 1, 1, 1, 0, 0, 0, 0, 1) with prediction c = 1. さらに、 v = (v1, v2, v3, v4, v5, v6, v7, v8, v9) = (1, 1, 1, 1, 0, 0, 0, 0, 1) と予測する。 0.82
Since v is consistent with the path ending at node 23, by inspection, we can conclude that a possible explanation is X = {1, 2, 3, 4, 9}, i.e. v はノード 23 で終わる経路と検査によって一致しているので、可能な説明は X = {1, 2, 3, 4, 9} と結論付けることができる。 0.81
the features listed in the path. 経路に記載された特徴です 0.69
It can be shown that this corresponds to a PI-explanation. これは PI-Explanation に対応することを示すことができる。 0.78
Figure 1: DT used as running example 図1: 実行例として使用されるDT 0.73
3 Complementary Definitions of Relevant Sets 3 関連集合の相補的定義 0.84
Given the prohibitive complexity of solving the Min-δ-Relevant-Set problem, this section proposes alternative definitions of minimal relevant sets, which are shown to yield efficient algorithms for some concrete ML models. Min-δ-Relevant-Set問題を解くことの禁止的な複雑さを考えると、この節では、いくつかの具体的なMLモデルに対して効率的なアルゴリズムを導出する最小の関連集合の代替定義を提案する。 0.60
First, we consider subset-minimal relevant sets instead of cardinalityminimal sets. まず、濃度最小集合の代わりに部分集合-最小関係集合を考える。 0.56
However, we relax the restrictions that features are boolean and the classification problem is restricted to two classes. しかし,特徴がブール値であることの制約は緩和され,分類問題は2つのクラスに制限される。 0.75
Min-Cδδδ-Relevant-Sets. Min-Cδδδ-Relevant-Sets 0.35
Following earlier work on PI-explanations [36], we consider subsetminimal relevant sets. PI-説明に関する以前の研究 [36] の後、我々は部分最小の関連集合を考える。 0.54
Definition 3 (Cδδδ-relevant set). 定義 3 (cδδδ-関係集合)。 0.66
Let κ : F → K, δ ∈ [0, 1], and instance (v ∈ F, c ∈ K). κ : f → k, δ ∈ [0, 1] とインスタンス (v ∈ f, c ∈ k) とする。 0.77
S ⊆ F is a Cδ-relevant set for the classifier-instance pair, κ and (v, c), if (4) holds. (4) が成り立つとき、S は κ と (v, c) に対する Cδ-関連集合である。
訳抜け防止モード: f は cδ - related set for the classifier - instance pair, である。 κ と (v, c ) if (4 ) hold である。
0.82
(The difference of Cδ to plain δ relevant sets is that F and K become unrestricted.) (Cδ と原 δ の関係集合の違いは、F と K が非制限となることである。) 0.77
As noted in earlier work, a (smallest) PI-explanation is a 1-relevant set for a given pair κ and (v, c). 初期の研究で述べたように、(最も小さい) pi-explanation は与えられたペア κ と (v, c) に対する 1-関係集合である。 0.70
Furthermore, the main difference with respect to Anchors [33] is the assumptions made with respect to sampling. さらにアンカー [33] に関しての主な違いはサンプリングに関する仮定である。 0.59
As noted in earlier work [42], δ-relevant sets can be related with different efforts for computing explanations [33, 36, 18]. 以前の研究[42]で述べたように、δ関連集合は、計算説明のための異なる取り組み [33, 36, 18] と関連付けられる。 0.68
Definition 4 (Min-Cδδδ-Relevant-Set). 定義4(Min-Cδδδ-Relevant-Set)。 0.48
Let κ : F → K, δ ∈ [0, 1], and instance (v ∈ F, c ∈ K). κ : f → k, δ ∈ [0, 1] とインスタンス (v ∈ f, c ∈ k) とする。 0.77
A Min-Cδ-Relevant-Set is a (subset-)minimal subset S ⊆ F that is Cδ-relevant for κ and (v, c). Min-Cδ-relevant-Set は κ と (v, c) に対して Cδ-relevant である (subset-)minimal subset S > F である。 0.72
(Observe that, in contrast with the definition of Min-δ-Relevant-Set [42], where the objective is to compute a cardinality-minimal set, the objective of the definition of Min-Cδ-Relevant-Set it to compute a subset-minimal set.) (Min-δ-Relevant-Set [42] の定義とは対照的に、その目的が濃度-最小集合を計算することであり、Min-Cδ-Relevant-Setの定義の目的が部分-最小集合を計算することである。) 0.75
For the case where κ is implemented as a boolean circuit (propositional formula defined on the operators ∨, ∧ and ¬), Min-δ-Relevant-Set is hard for NPPP, with the decision problem in NPPP [42]. κ がブール回路として実装される場合(演算子に定義された仮定式 , >, > )、min-δ-relevant-Set はNPPP では困難であり、NPPP [42] では決定問題となる。 0.82
Although the complexity of Min-Cδ-Relevant-Set is unknown, we conjecture that it is similar to the one of Min-δ-Relevant-Set. Min-Cδ-Relevant-Set の複雑さは分かっていないが、Min-δ-Relevant-Set と類似している。 0.64
Moreover, we have the following result, Proposition 1. さらに、以下の結果が得られた。 0.48
Deciding whether a set S ∈ F is a Cδ-relevant set is PP-hard. 集合 S ∈ F が Cδ-関連集合であるかどうかを決定することは PP-ハードである。 0.56
4 4 0.85
英語(論文から抽出)日本語訳スコア
(The proof in included in the supplementary materials.) (補足資料に含まれる証拠) 0.46
It should be underlined that the high complexity of exactly solving Min-δ-Relevant-Set (and Min-Cδ-Relevant-Set) in the general case represents a key practical limitation. 一般の場合、Min-δ-Relevant-Set(およびMin-Cδ-Relevant-Set)を正確に解くことの複雑さは、重要な実用的限界である。 0.60
One additional difficulty with computing a subset-minimal Cδrelevant set is that its definition is non-monotone. 部分最小 cδ 関係集合を計算することの別の難点は、その定義が単調でないことである。 0.49
(4) can be written as follows, (4)は次のように書くことができる。 0.72
Prx(κ(x) = c | xS = vS ) = Prx(κ(x) = c | xS = vS ) = 0.85
|{x ∈ F : κ(x) = c ∧ (xS = vS )}| |{x ∈ F : κ(x) = c > (xS = vS )}| 0.81
|{x ∈ F : (xS = vS)}| |{x ∈ F : (xS = vS)}| 0.85
As the size of set S is reduced (e g as we search for a minimal set), both the numerator and the denominator can change. 集合 S のサイズが小さくなる(例えば、最小の集合を探索する)と、数値演算子と分母の両方が変化する。 0.61
Hence, the value of Prx(κ(x) = c | xS = vS ) is not guaranteed to shrink, and in some settings this value can grow. したがって、Prx(κ(x) = c | xS = vS ) の値は縮小することが保証されておらず、いくつかの設定ではこの値が増大する。 0.75
Min-Iδδδ-Relevant-Sets. Min-Iδδδ-Relevant-Sets 0.35
We show later in the paper that, by considering the probability of the conjunction of two events instead of the conditional probability, the resulting monotone definition of relevant set enables more efficient computation of subset-minimal relevant sets. 後述の論文では、条件付き確率の代わりに2つの事象が結合する確率を考えると、関連する集合の単調な定義により、部分集合と最小の関連集合のより効率的な計算が可能となる。 0.70
One has four possible outcomes when considering two events. 2つの事象を考えると4つの結果が得られる。 0.60
In our case that means we can have: [κ(x) = κ(v), xS = vS], [κ(x) = κ(v), xS 6= vS], [κ(x) 6= κ(v), xS = vS ], and [κ(x) 6= κ(v), xS 6= vS ]. すなわち、 [κ(x) = κ(v), xS = vS], [κ(x) = κ(v), xS 6 = vS], [κ(x) 6 = κ(v), xS = vS ], [κ(x) 6 = κ(v), xS 6 = vS ] である。 0.71
We are interest in picking sets S that minimize the odds of picking an assignment consistent with S and obtaining a different prediction. 我々は、S と整合な割り当てを選び、異なる予測を得る確率を最小化する集合 S を選択することに興味がある。 0.74
Hence, our concern will be to identify sets S that minimize Pr(κ(x) 6= κ(v), xS = vS). したがって、我々の関心は Pr(κ(x) 6 = κ(v), xS = vS を最小化する集合 S を特定することである。 0.84
Definition 5 (Iδδδ-relevant set). 定義 5 (iδδδ-関係集合)。 0.69
Let κ : F → K, δ ∈ [0, 1], and instance (v ∈ F, c ∈ K). κ : f → k, δ ∈ [0, 1] とインスタンス (v ∈ f, c ∈ k) とする。 0.77
S ⊆ F is a Iδ-relevant set for the classifier-instance pair, κ and (v, c), if (5) holds: もし (5) が成り立つなら、S は κ と (v, c) の分類器-インスタンス対に対する Iδ-関連集合である。
訳抜け防止モード: f は iδ - related set for the classifier - instance pair, である。 κ と (v , c ) , if (5 ) hold :
0.90
Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ 0.85
(5) From the definition of conditional probability (see above in this section), it is immediate to observe that, (5) 条件付き確率の定義(上述の節を参照)では、そのことをすぐに観察する。 0.80
Prx(κ(x) 6= κ(v), xS = vS) = Prx(κ(x) 6= κ(v), xS = vS) = 0.85
|{x ∈ F : κ(x) 6= c ∧ (xS = vS)}| |{x ∈ F : κ(x) 6= c > (xS = vS)}| 0.86
|{x ∈ F}| Definition 6 (Min-Iδδδ-Relevant-Set). |{x ∈ F}| 定義6(Min-Iδδδ-Relevant-Set)。 0.68
Let κ : F → K, δ ∈ [0, 1], and instance (v ∈ F, c ∈ K). κ : f → k, δ ∈ [0, 1] とインスタンス (v ∈ f, c ∈ k) とする。 0.77
A Min-Iδ-Relevant-Set is a minimal subset S ⊆ F that is Iδ-relevant for κ and (v, c). Min-Iδ-relevant-Set は κ と (v, c) に対して Iδ-relevant である最小部分集合 S > F である。 0.65
By observing that for larger sets we can only increase the likelihood of the function differing from the value of κ(v), we have the following result. より大きな集合に対して κ(v) の値と異なる函数の確率を増大させることで、以下の結果が得られる。
訳抜け防止モード: より大きな集合に対して κ(v) の値と異なる函数の確率を増大させることしかできないことを観察することによって、 以下の結果が得られます
0.76
Proposition 2. Iδ-relevant sets are monotone, i.e. 命題2。 iδ-関係集合は単調である。 0.54
for S1 ⊇ S2, it is the case that, S1 > S2 の場合、それはその場合である。 0.73
Prx(κ(x) 6= κ(v), xS1 = vS1) ≤ Prx(κ(x) 6= κ(v), xS2 = vS2 ) Prx(κ(x) 6= κ(v), xS1 = vS1) ≤ Prx(κ(x) 6= κ(v), xS2 = vS2 ) 0.95
4 Duality Results for Relevant Sets 4 関連集合の二重性結果 0.69
Duality results between different types of explanation enable the implementation of explanation enumeration algorithms [15, 13]3 This section proves one initial duality result between δ-relevant sets. 異なる種類の説明の間の双対性の結果は、説明列挙アルゴリズム [15, 13]3 の実装を可能にする。 0.60
Given earlier work [15, 13], additional results can be envisioned. 初期の作業 [15, 13] を考えると、さらなる成果が期待できる。 0.81
Let C be a predicate, C : 2F → {0, 1}, such that, c を述語とし、c : 2f → {0, 1} とする。 0.68
C(S) = [Prx(κ(x) 6= c, xS = vS ) ≤ δ] C(S) = [Prx(κ(x) 6= c, xS = vS ) ≤ δ] 0.89
We associate with C a set of subsets of F, 我々は、C と F, の部分集合の集合を関連付ける。 0.64
C = {S ⊆ F | C(S)} C = {S > F | C(S)} である。 0.90
In addition, we define a set of minimal sets, さらに、最小集合の集合を定義する。 0.59
Cmin = {S ⊆ F | C(S) ∧ ∀(U ( S).¬C(U)} Cmin = {S > F | C(S) . . . . . . Cmin = {S > F | C(S) . . . . 0.65
Next, we introduce the dual predicate D, D : 2F → {0, 1}, such that, 次に、双対述語 d, d : 2f → {0, 1} を導入する。
訳抜け防止モード: 次に、二重述語 D, D : 2F → { 0, 1 } を導入する。 そんな...。
0.72
D(T ) = ¬C(F \ T ) = [Prx(κ(x) 6= c, xF \T = vF \T ) > δ] D(T ) = シュC(F \T ) = [Prx(κ(x) 6= c, xF \T = vF \T ) > δ] 0.93
The dual of δ-relevant sets are sets T of features which if changed entail a change of class with a probability > δ and are thus probabilistic analogues of contrastive explanations [13]. δ-関連集合の双対は、もし変化すれば確率 > δ のクラスの変化を伴い、従って対照的な説明の確率的類似であるような特徴の集合 T である。 0.81
As done above, 3These recent duality results about explanations build on the work of Reiter [31]. 上述の通り。 3 Reiter [31] の作業に基づく説明に関する最近の二重性の結果。 0.66
In this section, we follow loosely a recent overview [39]. この節では ゆるやかに 最近の概要[39]. 0.57
5 5 0.85
英語(論文から抽出)日本語訳スコア
P10 P11 P12 P13 Path Rj Q1 Q2 Q3 Q4 Q5 Pr(Rj ) α1 α4β 2 α4β 3 α4β 4 α1β 4 α3β 3 α2β 3 α3β 1 α1β 2 α4β 3 α4β 2 α3β 2 α1β 3 α3β 5 α2β 4 α1β 5 α2β 3 β 5 P10 P11 P12 P13 Path Rj Q1 Q2 Q4 Q5 Pr(Rj ) α1 α4β 2 α4β 3 α4β 4 α1β 4 α3β 3 α2β 3 α3β 1 α1β 2 α4β 2 α3β 2 α3β 3 α3β 5 α2β 4 α1β 5 α2β 3 α2β 3 β 5 0.66
P1 P2 P3 P8 P1 P2 P3 P8 0.78
P9 P4 P5 P6 P9 P4 P5 P6 0.78
P7 we can define the following sets: P7 以下の集合を定義できます 0.75
Table 1: Path probabilities for running example 表1: 実行例のパス確率 0.72
D = {T ⊆ F | D(T )} Dmin = {T ⊆ F | D(T ) ∧ ∀(V ( T ).¬D(V)} D = {T > F | D(T ) Dmin = {T . F | D(T ) . . D = {T . F | D(T ) Dmin = {T . F | D(T ) . 0.73
Given the above, monotonicity of the predicates C and D (see Proposition 2), allows us to prove the following results, 上記のことを考えると、述語 C と D の単調性(命題 2 を参照)は、以下の結果を証明できる。 0.74
Proposition 3. C = HS(D), D = HS(C), Cmin = MHS(D), and Dmin = MHS(C). 命題3。 C = HS(D)、D = HS(C)、Cmin = MHS(D)、Dmin = MHS(C)。 0.64
Proof. First, we consider C = HS(D). 証明。 まず、C = HS(D) を考える。 0.66
Suppose, there exists S such that it is not a hitting set of sets in D. Namely, S does not hit some set T ∈ D, S ∩ T = ∅. s が d 内の集合のヒット集合ではないような s が存在すると仮定する。
訳抜け防止モード: 例えば、S が存在して、それが D 内の集合のヒット集合ではないとする。 S は、ある集合 T ∈ D , S {\displaystyle S} を打たない。
0.84
By definition, S ⊂ F \ T . 定義上、S は F \ T である。 0.76
We recall that a predicate P is monotone if for all S, S′ ⊆ F , 述語 P が単調であるとは、すべての S に対して S′ > F が成り立つことを思い出す。 0.55
S ⊂ S′ ∧ P (S) → P (S′). S は P(S) → P(S) である。 0.67
Hence, as S ⊂ F \ T and C(S) holds, C(F \ T ) must hold. したがって、S は F \ T であり、C(S) は成り立つので、C(F \ T ) は成り立たない。 0.72
This leads to a contradiction as D(T ) = ¬C(F \ T ) by definition. これは定義によって D(T ) = >C(F \ T ) と矛盾する。 0.75
The reverse direction, D = HS(C), is similar. 逆方向 D = HS(C) も同様である。 0.67
Second, we consider Cmin = MHS(D). 次に、Cmin = MHS(D) を考える。 0.67
The proof that S ∈ Cmin is a hitting set of D follows from the argument above as Cmin ⊆ C. Next, we suppose S ∈ Cmin is not a minimal hitting set of D. Let G ⊂ S be the minimal hitting set. s ∈ cmin が d のヒット集合であるという証明は、上記の議論から従う: 次に、s ∈ cmin が d の最小ヒット集合ではないと仮定する。
訳抜け防止モード: S ∈ Cmin が D のヒット集合であることの証明 次に、S ∈ Cmin は D の最小ヒット集合ではないと仮定する。 G = S は最小のヒット集合である。
0.66
By definition of minimality of S, ¬C(G) must hold. S の極小性の定義により、sC(G) は保たなければならない。 0.57
Consider W such that G = F \ W. We have that ¬C(G) = ¬C(F \ W) = D(W). g = f \ w であるような w を考えると、f(g) = f(w) = d(w) となる。 0.61
Therefore, W ∈ D. As G ∩ W = ∅ by construction, G does not hit W ∈ D and it is not a hitting set. したがって、w ∈ d は、構成によって g が w ∈ d にヒットせず、ヒット集合ではない。 0.69
The reverse direction, Dmin = MHS(C), is similar. 逆方向の Dmin = MHS(C) も同様である。 0.71
5 Relevant Sets for DTs & Other Classifiers DTとその他の分類のための5つの関連セット 0.62
This section shows that the decision problem for δ-relevant (and so Cδ-relevant) sets is in NP when κ is represented by a decision tree4. 本節は、κ が決定木で表されるとき、δ-関係(およびcδ-関係)集合の決定問題はnpにあることを示す。
訳抜け防止モード: 本項ではδ に関する決定問題について述べる。 Cδ - relevant ) 集合は κ が決定木 4 で表されるとき NP に含まれる。
0.73
Thus, Min-Cδ-Relevant-Set can be solved with at most a logarithmic number of calls to an NP oracle. したがって、Min-Cδ-Relevant-SetはNPオラクルへの対数的な呼び出しで解ける。 0.66
(This is true since we minimize on the number of features.) (機能数を最小限に抑えるため、これは事実である。) 0.77
This section also shows the decision problem for Iδ-relevant sets is in P. Thus, the Min-IδRelevant-Set can be solved in polynomial time in the case of DTs. この節はまた、iδ関係集合の決定問題は p にあることを示すので、dts の場合、min-iδ関係集合は多項式時間で解くことができる。
訳抜け防止モード: この節は iδ の決定問題も示しており、関連する集合は p にある。 min - iδrelevant - 集合は dts の場合多項式時間で解くことができる。
0.62
Furthermore, the section extends the previous results to the case of knowledge compilation (KC) languages [11]. さらに、この節では、前回の結果をkc言語 [11] に拡張している。 0.52
Path probabilities for DTs. Let v ∈ F and suppose that κ(v) = c ∈ K. For a DT T , let P = {P1, . DTのパス確率。 v ∈ F を κ(v) = c ∈ K と仮定し、DT T に対して P = {P1, とする。 0.76
. . , PM } denote the paths with prediction c, and let Q = {Q1, . . . , PM } は予測 c の経路を表し、Q = {Q1, とする。 0.82
. . , QN } denote the paths with a prediction in K \ {c}. . . , QN } は、K \ {c} で予測された経路を表す。 0.84
Let R = P ∪ Q denote the set of all paths in the DT T . R = P {\displaystyle R} は DT T {\displaystyle T} のすべての経路の集合を表す。 0.63
For Rj ∈ R, let ||Rj|| denote the number of points in F consistent with Rj . Rj ∈ R に対し、||Rj|| は Rj と一致する F の点の数を表す。 0.77
Thus, the path probability of any path Rj ∈ R is, Pr(Rj) = ||Rj||/||F||. したがって、任意の経路 Rj ∈ R の経路確率は、Pr(Rj) = ||Rj||/||F|| である。 0.65
(The path probability of some tree path Rj is the empirical probability of a point in feature space chosen at random being consistent with the path Rj .) (ある木道rjの経路確率は、ランダムに選択された特徴空間内の点が経路rjと一致するような経験的確率である。) 0.82
As a result, we get, 結果として、私たちは 0.80
XRj ∈P Pr(Rj ) +XRj ∈Q XRj ∈P Pr(Rj ) +XRj ∈Q 0.90
Pr(Rj ) = 1 Pr(Rj ) = 1 0.85
Moreover, ||F|| = ||D1|| × · · · × ||Dm||. さらに ||F|| = ||D1|| × · · × ||Dm|| となる。 0.54
For each path Rj , let di denote the number of values in Di that is consistent with the literals defined on xi in path Rj . 各パス rj に対して、di はパス rj の xi 上で定義されたリテラルと一致する di の値の数を表す。 0.79
Thus, ||Rj || = d1 × · · · × dm. したがって ||Rj || = d1 × · · · × dm となる。 0.74
Example 2. For the example in Figure 1, Table 1 shows the path probability for each path in the DT, computed using the above definition of path probability. 例2。 図1の例では、表1は上記の経路確率の定義を用いて計算されたDTの各経路の経路確率を示す。 0.77
Min-Cδδδ-Relevant-Sets for DTs. DT用Min-Cδδδ-関連セット 0.48
Whereas in the general case, deciding whether there exists a δrelevant set of size no greater than k is complete for NPPP [42], in the the case of DTs, one can prove that this decision problem is in NP (and the same applies in the case of a subset-minimal Cδ-relevant set). 一般の場合、k 以上のサイズのδ関連集合が存在するかどうかを決定することは NPPP [42] に対して完備であるのに対し、DT の場合、この決定問題は NP に含まれることを証明できる(かつ、部分集合最小の Cδ-関連集合の場合も同様)。 0.82
Proposition 4. For DTs, given v ∈ F, with κ(v) = c ∈ K, deciding the existence of min-δ-relevant set of size at most k is in NP. 命題4。 DT に対して、κ(v) = c ∈ K の v ∈ F が与えられたとき、最小 k における min-δ-関連サイズの集合の存在は NP である。 0.66
4For simplicity, the paper considers the case of non-continuous features. 4 単純性について,本論文では非連続的な特徴について考察する。 0.47
However, in the case of DTs, the しかし、DTの場合、 0.45
results generalize to continuous features. 結果は連続した特徴に一般化されます 0.53
6 6 0.85
英語(論文から抽出)日本語訳スコア
Proof. We reduce the problem of deciding the existence of a min-δ-relevant set of size at most k to the decision version of the maximum satisfiability modulo theories (SMT) problem [4, 6] (assuming a suitable quantifier-free theory). 証明。 我々は、最大満足度変調理論 (SMT) 問題 [4, 6] の決定版に、最大 k において min-δ-関連サイズの集合が存在することを決定する問題を減らした。 0.70
Let si be a boolean variable such that si = 1 iff i ∈ F is included in the δ-relevant set. si をブール変数とし、si = 1 iff i ∈ f が δ-関係集合に含まれるようにする。 0.75
Moreover, let tj be a boolean variable, such that tj = 1 iff path Rj ∈ P ∪ Q is inconsistent, i.e. さらに、tj をブール変数とし、tj = 1 iffパス rj ∈ p {\displaystyle r}q} が矛盾する。 0.57
some feature i added to the δ-relevant set makes Rj inconsistent. δ-関連集合に追加したいくつかの特徴は、Rj を矛盾させる。 0.50
Thus, if path Rj is inconsistent with the value given to feature i, then it must be the case that, したがって、パス Rj が特徴 i に与えられる値と矛盾するならば、それはそうでなければならない。 0.76
Also, if Rj is deemed inconsistent, then it must be the case that, また、Rj が矛盾しているとみなすならば、それはそうでなければならない。 0.64
si → tj tj →_i∈Ij si → tj tj →_ijavaij 0.79
si where i ranges over the set of features Ij that make Rj inconsistent, given v. The set of picked features S , (i.e. シー ここで私は、rjを一貫性のないものにする機能ijのセットに幅があります。
訳抜け防止モード: シー 私が作っているIjの機能のセットを Rj (複数形 Rjs) given v. 選択された特徴のセット S , (i.e.)。
0.52
S is the set of features having si = 1), ensures that S は si = 1) を持つ特徴の集合であり、確実に 0.82
Prx(κ(x) = κ(v)|xS = vS ) ≥ δ Prx(κ(x) = κ(v)|xS = vS ) ≥ δ 0.90
From which we get, そこから得られるもの。 0.40
Prx(κ(x) = κ(v) ∧ xS = vS) ≥ δ × Prx(xS = vS ) ⇔ Prx(κ(x) = κ(v) > xS = vS) ≥ δ × Prx(xS = vS) > 0.80
Pj,Rj ∈P ¬tj × Pr(Rj) ≥ δ ×Pj,Rj ∈P∪Q ¬tj × Pr(Rj) Pj,Rj ∈P >tj × Pr(Rj) ≥ δ ×Pj,Rj ∈P >Q >tj × Pr(Rj) 0.92
which is a linear inequality on the tj variables, since the probabilities are constant. これは tj 変数上の線形不等式であり、確率は定数である。 0.65
An additional constraint is that the number of si variables assigned value 1 cannot exceed k, i.e. 追加の制約は、割り当てられた値 1 の si 変数の数が k を超えることができないことである。 0.76
the bound on the size of the relevant set S: 関連する集合 S のサイズ上の境界 0.56
Xi∈F si ≤ k XiōF si ≤ k 0.70
which is another linear inequality, this one on the si variables. これは別の線形不等式であり、si変数上のものです。 0.67
By conjoining all the constraints, and assignment to the si and tj variables that satisfies the constraints picks a δ-relevant set whose size does not exceed k. ✷ すべての制約、および制約を満たすsiおよびtj変数への割り当てを結合することで、サイズが k を超えない δ-関係集合を選ぶ。 0.77
Clearly, since the decision problem is in NP, it is immediate how to compute a cardinality minimal δ-relevant set by binary search on the number of si variables included in the set. 明らかに、決定問題はnpにあるので、集合に含まれるsi変数の数を二項探索により最小 δ-関係の基数を直ちに計算する方法である。 0.74
Since the number of variables equals the size of F , then we are guaranteed to need (in the worst-case) a logarithmic number of calls to an NP oracle. 変数の数は f のサイズと等しいので、np oracle への呼び出しの対数数(最悪の場合)が必要であることが保証される。
訳抜け防止モード: 変数の数は F のサイズに等しいので、 保証されてます to need ( the worst - case ) a logarithmic number of call to a NP oracle.
0.85
Furthermore, since the decision problem for the min-δ-relevant problem is in NP, it is also the case that the decision problem for the min-Cδ-relevant problem is also in NP. さらに、min-δ関連問題に対する決定問題はNPにあるので、min-Cδ関連問題に対する決定問題もNPにある。 0.69
Finally, we conjecture that the min-δ-relevant set, but also the min-Cδ-relevant problem are both hard for NP. 最後に、min-δ-関連集合だけでなく、min-Cδ-関連問題もNPにとって困難であると予想する。 0.60
These conjectures are further justified below. これらの予想は後述する。 0.55
Min-Iδδδ-Relevant-Sets for DTs. DT用Min-Iδδδ-関連セット 0.48
One apparent reason to the conjectured complexity is the fact that the conditional probability used for defining δ-relevant and Cδ-relevant sets is non-monotone. 予想された複雑性の明らかな理由の1つは、δ-関連集合とCδ-関連集合を定義する条件確率が非単調であることである。
訳抜け防止モード: 推測された複雑さの明白な理由は δ - 関係集合と cδ - 関係集合を定義する条件付き確率は非単調である。
0.70
As a result, earlier in the paper we introduced Iδ-relevant sets, which were shown to be monotone in Proposition 2. その結果,提案2では,Iδ関連集合がモノトンであることが判明した。 0.63
We now show that, in the case of DTs, computing a subset-minimal Iδ-relevant set is in P. The criterion for a set of features to be Iδ-relevant is: 現在、dts の場合、部分集合-最小 iδ-関係集合を p で計算することが示されている。 0.40
Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ 0.85
Observe that this constraint holds when S = F and, by Proposition 2 Iδ-relevant sets are monotone. この制約は S = F のときに成立し、命題 2 Iδ-関連集合は単調である。 0.70
As a result, we can compute a subset minimal Iδ-relevant set, as proposed inAlgorithm 1. その結果、Algorithm 1 で提案されているような、最小の Iδ-関連集合を計算できる。 0.69
(The algorithm is standard, and can be traced to at least the work of Chinneck & Dravnieks [9]. (このアルゴリズムは標準であり、少なくともCenneck & Dravnieks [9]の業績に遡ることができる。 0.69
The novelty is its use for computing min-Iδ-relevant sets.) ノベルティはmin-iδ関係集合の計算に使用される。 0.52
The algorithm maintains an invariant representing the assertion that the set S is a Iδ-relevant set. このアルゴリズムは集合 S が Iδ-関連集合であるという主張を表す不変性を保持する。
訳抜け防止モード: アルゴリズムは、アサーションを表す不変性を保持する 集合 S は Iδ-関連集合である。
0.72
Initially, all features are included in set S, i.e. 当初、全ての機能は集合 S、すなわち集合 S に含まれる。 0.69
S = F , and so S is a Iδ-relevant set. S = F であり、したがって S は Iδ-関連集合である。 0.71
The algorithm then iteratively removes one feature at a time, and checks whether the invariant is broken. アルゴリズムは1回に1つの特徴を反復的に取り除き、不変性が壊れているかどうかをチェックする。 0.55
If it is, then the feature is added back to set S. Otherwise, we are guaranteed, by monotonicity, that for any superset of set S, the invariant holds. さもなくば、単調性により、集合 S の任意の超集合に対して不変量は成り立つことが保証される。
訳抜け防止モード: もしそうなら、その機能は集合 S に追加される。 モノトニック性によって 保証されています 集合 S の任意の超集合に対して、不変量は成り立つ。
0.65
Example 3. We consider the running example (see Figure 1, with instance (v, c) given by v = (v1, v2, v3, v4, v5, v6, v7, v8, v9) = (1, 1, 1, 1, 0, 0, 0, 0, 1) and c = κ(v) = 1. 例3。 v = (v1, v2, v3, v4, v6, v7, v8, v9) = (1, 1, 1, 1, 0, 0, 0, 0, 0, 1) および c = κ(v) = 1 で与えられる実例 (v, c) を考える。
訳抜け防止モード: 例3。 実行中の例について検討します(図1参照)。 c ) v = (v1, v2, v3, v4, v5, v6, v7, v8, v9 ) = (1, 1, 1) 1, 1, 0, 0, 0, 0, 1 ) と c = κ(v ) = 1 である。
0.83
As argued earlier, by setting δ = 0, one AXp is X = {1, 2, 3, 4, 9}. 先に述べたように、δ = 0 を設定すれば、1つの AXp は X = {1, 2, 3, 4, 9} となる。 0.80
Let ǫ(S) = Prx(κ(x) = κ(v), xS = xS ), denoting the error associated with some set of features S. With the purpose of improving the interpretability of the explanation, we set δ = 0.03, and work towards finding an explanation with fewer literals. s(s) = prx(κ(x) = κ(v), xs = xs ) とする。 説明の解釈可能性を改善するために δ = 0.03 を設定し、より少ないリテラルで説明を求める。
訳抜け防止モード: s(s ) = prx(κ(x ) = κ(v ), xs = xs ) とする。 説明の解釈可能性を改善する目的で、いくつかの特徴のセットに付随する誤りを示すこと。 δ = 0.03 とし、より少ないリテラルで説明を見つけることに取り組む。
0.77
To illustrate the execution of the algorithm, we assume that the features are analyzed in the order h1, 2, 3, 4, 9i. アルゴリズムの実行を説明するために、これらの特徴は順序h1, 2, 3, 4, 9iで解析されると仮定する。 0.82
Table 2 summarizes the execution of the algorithm. 表2はアルゴリズムの実行を要約します。 0.81
The algorithm first analyzes そのアルゴリズムはまず分析する 0.71
7 7 0.85
英語(論文から抽出)日本語訳スコア
Algorithm 1 Finding one min-Iδ-relevant set (IDRS) アルゴリズム1 min-Iδ関連集合(IDRS)の探索 0.70
Input: Classifier κ, instance v, value δ Output: IDRS S 入力: Classifier κ, instance v, value δ Output: IDRS S 0.83
S ← {1, . s {\displaystyle s} は {1, .} である。 0.25
. . , m} for i ∈ {1, . . . i ∈ {1, に対して , m} である。 0.82
. . , m} do . . , m} である。 0.80
1: procedure findIDRS(κ, v, δ) 2: 3: 4: 5: 6: 1: procedure findIDRS(κ, v, δ) 2: 3: 4: 5: 6: 0.85
S ← S ∪ {i} S > S > S > {i} 0.64
S ← S \ {i} if Prx(κ(x) 6= κ(v), xS = vS ) > δ then もし Prx(κ(x) 6 = κ(v), xS = vS ) > δ であれば、S > S \ {i} となる。 0.89
⊲ Invariant: Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ Prx(κ(x) 6= κ(v), xS = vS ) ≤ δ 0.67
7: return S 7: return S 0.85
S {1, 2, 3, 4, 9} {1, 2, 3, 4, 9} {1, 3, 4, 9} {1, 4, 9} {1, 9} S {1, 2, 3, 4, 9} {1, 2, 3, 4, 9} {1, 3, 4, 9} {1, 4, 9} {1, 9} 0.85
i R = S \ {i} Q paths consistent with R ǫ(R) 0.5 i R = S \ {i} Q パスは R >(R) 0.5 と一致する 0.91
Decision Keep 1 Drop 2 Drop 3 Drop 4 Keep 9 決定 Keep 1 Drop 2 Drop 3 Drop 4 Keep 9 0.79
0.0157 0.0234 0.0273 > 0.03 0.0157 0.0234 0.0273 > 0.03 0.50
1 2 3 4 9 {2, 3, 4, 9} {1, 3, 4, 9} {1, 4, 9} {1, 9} {1} 1 2 3 4 9 {2, 3, 4, 9} {1, 3, 4, 9} {1, 4, 9} {1, 9} {1} 0.85
Q1 Q2 Q2, Q3 q1 q2 Q2、Q3 0.65
Q2, Q3, Q4 Q2, Q3, Q4, Q5 Q2、Q3、Q4 Q2、Q3、Q4、Q5 0.70
Table 2: Execution of Algorithm 1 表2:アルゴリズム1の実行 0.70
dropping feature 1 from the explanation X . 説明 x から機能 1 をドロップする。 0.75
In this case, only path Q1 can be made consistent. この場合、経路 Q1 のみを整合化できる。 0.70
Given that the probability of picking an assignment consistent with Q1 is 0.5, then feature 1 cannot be dropped from the explanation, as that would put the error about the target threshold. Q1と整合性のある割り当てを選択する確率が0.5であることを考えると、特徴1は目標閾値に関する誤差となるため、説明から外れることはできない。 0.83
Next, the algorithm considers dropping feature 2 from the explanation. 次に、アルゴリズムは説明から機能2を落とすことを検討する。 0.69
In this case, only path Q2 can be made consistent. この場合、経路 Q2 のみを整合化できる。 0.71
Given that the probability of picking an assignment consistent with Q2 is (1/2)6 = 0.015625, then are still below the target absolute fraction of error of δ = 0.03. q2 に一致する代入を選択する確率が (1/2)6 = 0.015625 であることを考えると、まだ δ = 0.03 の誤差の絶対分数以下である。 0.79
Hence, we remove feature 2 from the explanation. したがって、この説明から特徴2を除去する。 0.84
For feature 3, and since feature 2 is already dropped, then both paths Q2 and Q3 can be made consistent. 機能3と機能2はすでに削除されているため、両方のパスq2とq3を一貫性を持たせることができる。 0.64
In this case, the error raises to 0.0234, but it is still below 0.3, and so feature 3 is also dropped from the explanation. この場合、エラーは0.0234まで上昇するが、それでも0.3以下であり、機能3も説明から外される。 0.72
A similar analysis allows concluding that feature 4 can also be dropped from the explanation. 同様の分析により、機能4も説明から外せると結論付けることができる。 0.83
In contrast, after removing features 2, 3 and 4, feature 9 cannot be dropped form the explanation. 対照的に、特徴2,3,4を取り除いた後、その説明には特徴9を落とせない。 0.71
The resulting approximate explanation (i.e. 結果の近似的な説明(つまり) 0.74
a Iδ-relevant set) is thus {1, 9}. iδ-関係集合) は {1, 9} である。 0.76
Moreover, the explanation {1, 9} ensures that, in more than 97% of the points in feature space consistent with the values of features 1 and 9, the prediction will be the intended one, i.e. さらに、説明 {1, 9} は、特徴空間内の97%以上の点が特徴 1 と 9 の値と一致していることを保証する。
訳抜け防止モード: さらに、説明 { 1, 9 } は、そのことを保証している。 1 と 9 の値と一致する特徴空間の点の 97 % 以上において 予測は意図したもの、すなわち予測である。
0.73
1. KC languages [11]. 1. KC言語[11]。 0.75
Knowledge compilation (KC) languages [11] aim at simplifying queries and transformations in knowledge bases, and have recently been used as ML models. 知識コンパイル(KC)言語[11]は、知識ベースでのクエリと変換を単純化することを目的としており、最近ではMLモデルとして使用されている。 0.59
Concrete examples include binary decision diagrams [36, 37], among others [2, 3, 1]. 具体的な例としてはバイナリ決定ダイアグラム [36, 37] や [2, 3, 1] などがある。 0.73
By noting that the explanation algorithm proposed for DTs exploits counting of models after conditioning (i.e. DTに提案された説明アルゴリズムは条件付け後のモデルのカウント(すなわち、)を利用する。 0.70
fixing to a value) a set of selected features, then we can conclude that, for KC languages that implement conditioning and model counting in polynomial time, one min-Iδ-relevant set can also be computed in polynomial time. 選択された特徴の集合を固定すると、多項式時間で条件付けとモデルカウントを実装したKC言語の場合、1つのmin-Iδ関連集合も多項式時間で計算できる。 0.78
6 Experimental Results This section summarizes the experimental results, which aim at demonstrating the efficiency of minIδ-relevant sets if computed as explanations for DT models trained for various well-known datasets, over heuristic explanations of Anchor [33], both in terms of runtime performance and explanation precision. 6 実験結果 本稿では,Anchor [33] のヒューリスティックな説明よりも,様々なよく知られたデータセットで訓練されたDTモデルの説明として計算された場合,minIδ関連集合の効率性を示す実験結果を要約する。 0.81
Implementation and benchmarks. 実装とベンチマーク。 0.50
Min-Iδ-relevant sets are computed following the ideas of Section 5 and utilizing the polynomial-time Algorithm 1. Min-Iδ関連集合は、セクション5のアイデアに従って計算され、多項式時間アルゴリズム1を利用する。 0.59
The prototype implementation of the algorithm (IDRS) is written in Perl while the overall experiment is set up and run in Python.5 The precision of the resulting explanations is then assessed using the generic (and non-monotone) precision metric of Anchor [33]. アルゴリズム(IDRS)のプロトタイプ実装はPerlで書かれており、全体的な実験はPython.5で行なわれている。
訳抜け防止モード: アルゴリズム(IDRS)のプロトタイプ実装はPerlで書かれており、全体的な実験が設定されている。 Python.5で実行した結果の説明の精度が評価される Anchor[33 ]の一般的な(および非モノトーン)精度メトリックを使用する。
0.75
The experiments are conducted on a MacBook Pro with a Dual-Core Intel Core i5 2.3GHz CPU with 8GByte RAM running macOS Catalina. この実験はDual-Core Intel Core i5 2.3GHz CPUとmacOS Catalinaで動作する8GByte RAMを搭載したMacBook Proで実施された。 0.67
The benchmarks used in the experiment include publicly available and widely used datasets. 実験で使用されるベンチマークには、公開され、広く使用されているデータセットが含まれている。 0.45
The datasets originate from UCI ML Repository [40] and Penn ML Benchmarks [29]. データセットは、UCI ML Repository [40] と Penn ML Benchmarks [29] に由来する。 0.79
The number of 5The prototype implementation, benchmarks, instructions and log files of the experiment will be made 数 5 実験のプロトタイプの実装、ベンチマーク、命令、ログファイルを作成する。 0.52
publicly available in the final version of the paper. 論文の最終版で公開されている。 0.62
8 8 0.85
英語(論文から抽出)日本語訳スコア
Dataset #F #I データセット F 第i番 0.48
δ Length Precision (%) δ 長さ precision (複数形 precisions) 0.73
Runtime (s) Length ランタイム(s) 長さ 0.78
Precision (%) precision (複数形 precisions) 0.61
Runtime (s) IDRS ランタイム(s) IDRS 0.84
Anchor adult 12 アンカー 大人 12 0.73
1766 allhyper 1766 Allhyper 0.80
29 1113 ann-thyroid 29 1113 ann‐thyroid 0.76
21 2139 fars 21 2139 Fars 0.78
29 2790 kddcup 29 2790 kddcup 0.85
41 4368 M avg 41 4368 M avg 0.85
avg 10 6 6 5 avg 10 6 6 5 0.85
7 6 6 4 10 6 6 5 7 6 6 4 10 6 6 5 0.85
15 6 6 5 5.1 3.3 2.8 1.9 15 6 6 5 5.1 3.3 2.8 1.9 0.65
4.4 3.0 1.0 1.0 4.4 3.0 1.0 1.0 0.45
3.9 1.4 1.0 0.1 3.9 1.4 1.0 0.1 0.45
5.9 2.0 2.1 1.7 5.9 2.0 2.1 1.7 0.45
14 11.4 4.4 8 4.2 7 6 2.8 14 11.4 4.4 8 4.2 7 6 2.8 0.62
100 85.7 83.0 77.7 100 85.7 83.0 77.7 0.53
100 98.4 97.7 97.7 100 98.4 97.7 97.7 0.53
100 96.9 96.8 95.2 100 96.9 96.8 95.2 0.53
100 75.2 70.2 58.6 100 75.2 70.2 58.6 0.53
100 53.7 51.8 38.7 100 53.7 51.8 38.7 0.53
0.0 0.01 0.02 0.05 0.0 0.01 0.02 0.05 0.45
0.0 0.01 0.02 0.05 0.0 0.01 0.02 0.05 0.45
0.0 0.01 0.02 0.05 0.0 0.01 0.02 0.05 0.45
0.0 0.01 0.02 0.05 0.0 0.01 0.02 0.05 0.45
0.0 0.01 0.02 0.05 0.0 0.01 0.02 0.05 0.45
dev 0.0 20.8 16.4 21.0 開発 0.0 20.8 16.4 21.0 0.50
0.0 4.3 6.3 6.3 0.0 4.3 6.3 6.3 0.45
0.0 11.4 11.2 9.9 0.0 11.4 11.2 9.9 0.45
0.0 30.9 35.5 38.0 0.0 30.9 35.5 38.0 0.45
0.0 42.9 22.0 22.0 0.0 42.9 22.0 22.0 0.45
m M avg M avg m M avg M avg 0.85
avg dev m M avg 開発 M M 0.75
avg 0.04 0.07 0.05 0.04 0.08 0.04 0.04 0.08 0.05 0.04 0.11 0.06 avg 0.04 0.07 0.05 0.04 0.08 0.04 0.04 0.08 0.05 0.04 0.11 0.06 0.63
0.05 0.05 0.05 0.04 0.08 0.05 0.05 0.07 0.05 0.04 0.10 0.05 0.05 0.05 0.05 0.04 0.08 0.05 0.05 0.07 0.05 0.04 0.10 0.05 0.41
0.08 0.10 0.08 0.07 0.13 0.08 0.08 0.12 0.08 0.07 0.17 0.10 0.08 0.10 0.08 0.07 0.13 0.08 0.08 0.12 0.08 0.07 0.17 0.10 0.41
0.67 0.92 0.69 0.58 0.81 0.69 0.67 0.98 0.71 0.63 0.89 0.70 0.67 0.92 0.69 0.58 0.81 0.69 0.67 0.98 0.71 0.63 0.89 0.70 0.41
0.44 4.14 0.46 0.42 0.84 0.45 0.45 0.61 0.46 0.41 0.54 0.44 0.44 4.14 0.46 0.42 0.84 0.45 0.45 0.61 0.46 0.41 0.54 0.44 0.41
12 5.3 87.8 12 5.3 87.8 0.68
16.7 0.14 2.99 16.7 0.14 2.99 0.59
1.20 29 1.2 1.20 29 1.2 0.68
89.5 7.0 0.28 89.5 7.0 0.28 0.59
5.75 0.35 21 5.75 0.35 21 0.68
1.3 96.4 8.7 1.3 96.4 8.7 0.59
0.22 8.63 0.48 0.22 8.63 0.48 0.59
29 9.0 73.5 29 9.0 73.5 0.68
40.3 0.30 57.43 40.3 0.30 57.43 0.55
7.54 39 2.6 7.54 39 2.6 0.68
23.1 19.0 0.42 137.3 10.59 23.1 19.0 0.42 137.3 10.59 0.55
Table 3: Assessing explanations of Iδ-relevant sets (IDRS) and comparison with Anchor’s explanations. 表3: Iδ関連集合(IDRS)の説明を評価し、アンカーの説明と比較する。 0.83
Columns #F and #I report, resp., the number of features and the number of tested instances, in the dataset. 列#Fと#Iは、データセットのフィーチャの数とテストインスタンスの数についてレポートする。 0.64
(Note that for a dataset containing less (resp. (より少ない(resp)データセットに注意。 0.68
more) than 10.000 instances, 30% (resp. 以上) 10.000 インスタンス、30% (resp.net) 以上。 0.63
3%) of its instances, randomly selected, are used to be explained. 3%)のインスタンスがランダムに選択され、説明に使用される。 0.75
Moreover, duplicate rows in the datasets are filtered.) さらに、データセット内の重複行をフィルタする)。 0.82
Sub-Columns M and avg of column Length show, resp., the maximum and average size of an explanation. カラム長のサブカラムMとavgは、説明の最大サイズと平均サイズを示している。
訳抜け防止モード: Sub - Columns M and avg of column Length Show, resp . 説明の最大で平均的なサイズ。
0.84
Sub-columns avg and dev of column Precision show, resp., the average and standard deviation of the explanation’s precision. サブカラム avg と dev of column precision, resp., the average and standard lack of the description’s precision. (英語) 0.81
Sub-columns m, M and avg of column Runtime report, resp., minimal, maximal and average time in seconds to compute an explanation. サブカラム m, M および avg of column Runtime report, resp., minimal, maximal, average time in seconds to compute an explanation。 0.80
training instances (resp. トレーニングインスタンス(resp)。 0.75
features) in the target datasets varies from 3710 to 145585 (resp. 特徴) 対象データセットは3710から145585(resp.net)まで様々である。 0.71
12 to 41). All the decision tree models are trained using the learning tool ITI (Incremental Tree Induction) [41, 16]. 12~41)。 全ての決定木モデルは、学習ツールITI(Incremental Tree Injection) [41, 16]を用いて訓練される。 0.77
Note that the accuracy of all the models is above 73%, the maximum depth of the trees varies from 14 to 60 and the total number of nodes varies from 49 to 9969. すべてのモデルの精度が73%を超え、木の最大深さが14から60に変化し、ノードの総数は49から9969に変化している。
訳抜け防止モード: すべてのモデルの精度が73%以上であることに注意。 樹の最大深さは14から60まで様々である ノード数は49から9969まで様々である。
0.78
The experiment was set to iterate over some of the unique (see below) instances of a dataset and to compute an explanation for each such instance: either a min-Iδ-relevant set or an anchor. この実験はデータセットのユニークなインスタンス(下記参照)のいくつかを反復し、これらのインスタンスのそれぞれの説明を計算するために設定された: min-iδ-関係集合またはアンカー。 0.72
As the baseline, we ran Anchor with the default explanation precision of 0.95. ベースラインとして、デフォルトの説明精度0.95でAnchorを実行しました。 0.66
The prototype implementation IDRS was run for the values of δ from {0.05, 0.02, 0.01, 0.0}. プロトタイプ実装IDRSは {0.05, 0.02, 0.01, 0.0} からδ の値に対して実行された。 0.65
It should be observed that the proposed experiment gives an advantage to Anchor, as Anchor is allowed to computes explanations guided by its own metric, whereas Iδ-relevant sets know nothing about this metric (which they will be assessed with). 提案された実験は、アンカーが自身の計量で導かれた説明を計算できるのに対して、Iδ関連集合はこの計量について何も知らない(評価される)ので、アンカーに有利である。 0.73
Results. Table 3 details the results of our experiment. 結果。 表3 実験の結果について詳述します。 0.66
First of all, observe that Iδ-relevant sets are extremely simple to compute. まず第一に、Iδ関連集合は計算が非常に簡単である。 0.70
Concretely, the runtime of our prototype explainer IDRS normally takes just a fraction of a second per data instance (and never exceeds a second) to get a subsetminimal Iδ-relevant set. 具体的には、プロトタイプ説明器IDRSのランタイムは通常、データインスタンスあたり1秒(そして決して1秒を超えない)で、サブセットのIδ関連セットを取得する。 0.60
This means that it is at least 1–2 orders of magnitude faster than Anchor, which can take up to 138 seconds to get a single explanation, with the average explanation time being up to 10 seconds. これは、アンカーよりも少なくとも1-2桁速く、1つの説明を得るのに最大138秒かかり、平均説明時間は最大10秒であることを意味する。 0.68
Also observe that the runtime of the proposed approach is not affected by the value of δ and tends to be negligible overall. また、提案手法のランタイムは δ の値に影響されず、全体として無視できる傾向があることも観察する。 0.69
Second, length-wise Iδ-relevant sets also outperform Anchor. 第二に、長さワイドIδ関連集合もアンカーより優れている。 0.45
In particular, it is not surprising that the largest Iδ-relevant sets correspond to δ=0 and these on average include up to 11.4 features. 特に、最大の iδ-関係集合が δ=0 に対応し、これらは平均で 11.4 個の特徴を含むことは驚くべきことではない。 0.64
Explanation size gets further improved when δ is 0.01, 0.02 or 0.05. δ が 0.01, 0.02, 0.05 となると、説明サイズはさらに改善される。 0.60
Concretely, it is reduced to a few literals per explanation (on average below 5). 具体的には、説明ごとに数リテラル(平均して5以下)に縮小される。 0.77
(Also, please refer to the value of standard deviation shown in the tables.) (なお、表に示す標準偏差の値も参照) 0.54
On the contrary, Anchor’s explanations utilize up to 39 literals, with the average explanation containing 9 literals. 反対に、anchorの説明は最大39のリテラルを使用し、平均的な説明には9のリテラルが含まれている。 0.65
These results show an important difference between IDRS and Anchor in terms of interpretability [23]. これらの結果は,IDRSとAnchorの解釈可能性において重要な違いを示す[23]。 0.76
Finally and somewhat unexpectedly, IDRS outperforms Anchor in terms of explanation precision. 最後に、IDRSは説明精度でAnchorより優れている。 0.57
Clearly, the precision of I0-relevant sets (i.e. 明らかに、I0関連集合の精度(すなわち)。 0.73
δ=0) is 100%, which demonstrates a significant improvement over anchors. δ=0)は100%であり、アンカーよりも著しく改善されている。 0.68
What is more interesting, however, is that the average precision of IDRS does not significantly drop down in case of δ ∈ {0.05, 0.02, 0.01}. しかし、より興味深いのは、δ ∈ {0.05, 0.02, 0.01} の場合、IDRSの平均精度が著しく低下しないことである。 0.78
In particular, its precision is on par with (or better than) the explanations provided by Anchor. 特に、精度はアンコールによる説明と同程度(またはそれ以上)である。
訳抜け防止モード: 特に その正確さは anchor が提供する説明(あるいは ) よりも優れている。
0.63
All the points above confirm that Iδrelevant sets if computed for DT models provide a viable alternative to Anchor’s explanations from all the considered perspectives, including runtime performance, explanation size, and precision. 上記のすべてのポイントは、DTモデルで計算された場合のIδ関連集合が、ランタイムパフォーマンス、説明サイズ、精度など、考慮されたすべての視点から、Anchor氏の説明の代替となることを確認している。 0.58
9 9 0.85
英語(論文から抽出)日本語訳スコア
7 Conclusions δ-relevant sets [42] enable the computation of approximate (i.e. 結論7 δ-関連集合 [42] は近似(すなわち)の計算を可能にする。 0.65
non-universally true) explanations, and reveal connections between heuristic explanations and non-heuristic explanations. 非普遍的な)説明と、ヒューリスティックな説明と非ヒューリスティックな説明の関連を明らかにする。 0.57
A major drawback of δ-relevant sets is their computational complexity. δ-関連集合の大きな欠点は計算複雑性である。 0.75
This paper shows that for DTs, deciding whether there exists a set of at most k features that δ-relevant is in NP. 本稿では、DT に対して、δ-関連が NP に含まれる少なくとも k 個の特徴の集合が存在するかどうかを決定する。 0.66
Furthermore, the paper proposes relaxed alternative definitions of δ-relevant sets, and shows that such alternative definitions enable the computation of minimal approximate explanations in polynomial time. さらに、δ-関連集合の緩和された代替定義を提案し、そのような代替定義が多項式時間における最小近似的説明の計算を可能にすることを示す。 0.69
The paper also derives a first result on the duality between sets of features representing different kinds of (relaxed) δ relevant sets. 論文はまた、異なる種類のδ関連集合を表す特徴の集合の双対性に関する最初の結果も導出している。 0.77
The experimental results, obtained on large DTs learned with a state-of-the-art tree learner, confirm the practical efficiency and the quality of explanations when compared with the well-known Anchor heuristic explainer [33]. 最先端の樹木学習者を用いて学習した大規模DTで得られた実験結果から, 有名なアンカーヒューリスティックな説明法と比較して, 実効性と説明の質を確認した[33]。 0.75
Acknowledgments. This work was supported by the AI Interdisciplinary Institute ANITI, funded by the French program “Investing for the Future – PIA3” under Grant agreement no. 承諾。 この研究は ai interdisciplinary institute aniti によって支援され、フランスのプログラム "investing for the future – pia3" によって助成された。 0.59
ANR-19-PI3A0004, and by the H2020-ICT38 project COALA “Cognitive Assisted agile manufacturing for a Labor force supported by trustworthy Artificial intelligence”. ANR-19-PI3A0004 と H2020-ICT38 プロジェクト COALA “Cognitive Assisted Agile Manufacturing for a Labor Force for a Trustworthy Artificial Intelligence” による。 0.73
References [1] G. Audemard, S. Bellart, L. Bounia, F. Koriche, J. Lagniez, and P. Marquis. 参考文献 [1] G. Audemard, S. Bellart, L. Bounia, F. Koriche, J. Lagniez, P. Marquis。 0.79
On the computa- tional intelligibility of boolean classifiers. コンプタについて ブール分類器の オンタルインテリジェンス 0.33
CoRR, abs/2104.06172, 2021. CoRR, abs/2104.06172, 2021 0.77
[2] G. Audemard, F. Koriche, and P. Marquis. [2] G. Audemard, F. Koriche, P. Marquis。 0.88
On tractable XAI queries based on compiled repre- コンパイルされた再帰に基づくトラクタブルなXAIクエリについて 0.44
sentations. In KR, pages 838–849, 2020. 送付だ KR』838-849頁、2020年。 0.54
[3] P. Barceló, M. Monet, J. Pérez, and B. Subercaseaux. P. Barceló, M. Monet, J. Pérez, B. Subercaseaux. 0.76
Model interpretability through the lens レンズによるモデル解釈可能性 0.81
of computational complexity. In NeurIPS, 2020. 計算の複雑さです 2020年、NeurIPS。 0.73
[4] C. W. Barrett and C. Tinelli. 4] c・w・バレットとc・ティネリ 0.54
Satisfiability modulo theories. 満足度モジュロ理論。 0.73
In E. M. Clarke, T. A. Henzinger, H. Veith, and R. Bloem, editors, Handbook of Model Checking, pages 305–343. E. M. Clarke, T. A. Henzinger, H. Veith, R. Bloem, editors, Handbook of Model Checking, page 305–343。 0.93
Springer, 2018. 2018年、スプリンガー。 0.51
[5] C. Berge. 5] c. berge 0.47
Hypergraphs: combinatorics of finite sets. ハイパーグラフ:有限集合の組合せ論。 0.75
Elsevier, 1984. 1984年、エルゼヴィエ。 0.68
[6] N. Bjørner, A. Phan, and L. Fleckenstein. 6] N. Bjørner, A. Phan, L. Fleckenstein 0.76
νz - an optimizing SMT solver. νz - 最適化されたSMTソルバ。 0.62
In C. Baier and C. Tinelli, editors, TACAS, pages 194–199, 2015. c. baierと C. Tinelli, editors, TACAS, page 194–199, 2015 0.75
[7] L. Breiman. L.ブレイマン (L. Breiman)。 0.47
Statistical modeling: The two cultures. 統計モデル:2つの文化。 0.85
Statistical science, 16(3):199–231, 2001. 統計学 16(3):199–231, 2001。 0.86
[8] O. Camburu, E. Giunchiglia, J. Foerster, T. Lukasiewicz, and P. Blunsom. O. Camburu, E. Giunchiglia, J. Foerster, T. Lukasiewicz, P. Blunsom. 0.77
Can I trust the explainer? 信用できますか? 説明? 0.67
verifying post-hoc explanatory methods. ポストホックな説明方法の検証。 0.51
CoRR, abs/1910.02065, 2019. CoRR, abs/1910.02065, 2019。 0.72
[9] J. W. Chinneck and E. W. Dravnieks. 9] j. w. chinneck と e. w. dravnieks 0.74
Locating minimal infeasible constraint sets in linear 線型における最小不変制約集合の配置 0.64
programs. INFORMS J. プログラム 略称はJ。 0.47
Comput., 3(2):157–168, 1991. 3(2):157–168、1991年。 0.64
[10] A. Darwiche and A. Hirth. A. Darwiche と A. Hirth. 0.65
On the reasons behind decisions. 意思決定の背後にある理由についてです 0.41
In ECAI, pages 712–720, 2020. ECAI、2020年712-720頁。 0.77
[11] A. Darwiche and P. Marquis. A. DarwicheとP. Marquis。 0.61
A knowledge compilation map. 知識コンパイルマップ。 0.59
J. Artif. Intell. J. Artif インテリ。 0.65
Res., 17:229–264, 17:229-264頁。 0.44
2002. [12] R. Guidotti, A. Monreale, S. Ruggieri, F. Turini, F. Giannotti, and D. Pedreschi. 2002. R. Guidotti, A. Monreale, S. Ruggieri, F. Turini, F. Giannotti, D. Pedreschi. 0.86
A survey of methods for explaining black box models. アンケート調査 ブラックボックスモデルを説明する方法。 0.60
ACM Comput. Surv., 51(5):93:1–93:42, 2019. ACM計算。 2019年、51(5):93:1-93:42。 0.61
[13] A. Ignatiev, N. Narodytska, N. Asher, and J. Marques-Silva. A. Ignatiev, N. Narodytska, N. Asher, J. Marques-Silva. 0.86
From contrastive to abductive contrast + -ive 0.42
explanations and back again. In AI*IA, 2020. 説明と再帰を AI*IA、2020年。 0.64
[14] A. Ignatiev, N. Narodytska, and J. Marques-Silva. A. Ignatiev, N. Narodytska, J. Marques-Silva. 0.80
Abduction-based explanations for machine 機械のアブダクションに基づく説明 0.63
learning models. In AAAI, pages 1511–1519, 2019. 学習モデル。 AAAI』1511-1519頁、2019年。 0.69
[15] A. Ignatiev, N. Narodytska, and J. Marques-Silva. A. Ignatiev, N. Narodytska, J. Marques-Silva. 0.80
On relating explanations and adversarial examples. 説明と敵対について 例です 0.67
In NeurIPS, pages 15857–15867, 2019. NeurIPS, page 15857–15867, 2019。 0.87
[16] Incremental Decision Tree Induction. [16] 漸進的決定木誘導。 0.76
https://www-lrn.cs.u mass.edu/iti/, 2020. 2020年3月1日現在。 0.54
[17] Y. Izza, A. Ignatiev, and J. Marques-Silva. Y. Izza, A. Ignatiev, J. Marques-Silva. 0.78
On explaining decision trees. 決定木の説明について。 0.51
CoRR, abs/2010.11034, 2020. CoRR abs/2010.11034, 2020 0.57
[18] P. Khosravi, Y. Liang, Y. Choi, and G. Van den Broeck. [18]P. Khosravi、Y. Liang、Y. Choi、G. Van den Broeck。 0.81
What to expect of classifiers? 分類器に期待できるものは? 0.65
reasoning about logistic regression with missing features. 推論 機能不足によるロジスティック回帰について。 0.63
In IJCAI, pages 2716–2724, 2019. IJCAI』2716-2724頁、2019年。 0.68
[19] H. Lakkaraju and O. Bastani. [19]H. LakkarajuとO. Bastani。 0.89
"how do I fool you? 「どうやってあなたをだますのですか。 0.47
": Manipulating user trust via misleading 「誤解してユーザの信頼を操る」 0.63
black box explanations. ブラックボックスの説明。 0.79
In AIES, pages 79–85, 2020. 79-85頁、2020年。 0.57
[20] Z. C. Lipton. 20] z. c. リプトン 0.61
The mythos of model interpretability. モデル解釈可能性の神話。 0.78
Commun. ACM, 61(10):36–43, 2018. Commun ACM, 61(10):36–43, 2018。 0.67
10 10 0.85
英語(論文から抽出)日本語訳スコア
[21] S. M. Lundberg and S. Lee. S. M. LundbergとS. Lee。 0.70
A unified approach to interpreting model predictions. モデル予測を統一的に解釈するアプローチ。 0.82
In NIPS, pages 4765–4774, 2017. NIPS の略。 2017年、4765-4774頁。 0.59
[22] E. L. Malfa, A. Zbrzezny, R. Michelmore, N. Paoletti, and M. Kwiatkowska. E. L. Malfa, A. Zbrzezny, R. Michelmore, N. Paoletti, M. Kwiatkowska. 0.86
On guaranteed optimal robust explanations for NLP models. NLPモデルに対する最適ロバストな説明の保証について 0.67
In IJCAI, 2021. 2021年、IJCAIに入社。 0.62
In press, available from https://arxiv.org/ab s/2105.03640. プレスリリースはhttps://arxiv.org/ab s/2105.03640から入手できる。 0.41
[23] G. A. Miller. 23] g・a・ミラー 0.56
The magical number seven, plus or minus two: Some limits on our capacity for 魔法のナンバー7プラスまたはマイナス2:我々の能力にいくつかの制限 0.84
processing information. Psychological review, 63(2):81, 1956. 情報処理。 心理学評論 63(2):81, 1956。 0.71
[24] T. Miller. T. Miller (複数形 T. Millers) 0.48
Explanation in artificial intelligence: Insights from the social sciences. 人工知能における説明:社会科学からの洞察。 0.73
Artif. Intell., Artif Intell 0.51
267:1–38, 2019. 267:1–38, 2019. 0.65
[25] C. Molnar. C. Molnar. [25] C. Molnar. 0.63
Interpretable Machine Learning. 解釈可能な機械学習。 0.70
2020. http://tiny.cc/6c76t z. 2020. http://tiny.cc/6c76t z. 0.44
[26] D. Monroe. [26]D.モンロー。 0.68
Deceiving AI. Commun. AIの廃止。 Commun 0.61
ACM, 64, 2021. acm, 64, 2021。 0.69
[27] G. Montavon, W. Samek, and K. Müller. G. Montavon, W. Samek, K. Müller. 0.66
Methods for interpreting and understanding deep 深く解釈し理解するための方法 0.84
neural networks. ニューラルネットワーク。 0.65
Digital Signal Processing, 73:1–15, 2018. デジタル信号処理, 73:1-15, 2018。 0.71
[28] N. Narodytska, A. 28] n. narodytska, a. 0.61
A. Shrotri, K. S. Meel, A. Ignatiev, and J. Marques-Silva. A. Shrotri、K. S. Meel、A. Ignatiev、J. Marques-Silva。 0.75
Assessing heuris- heuris (複数形 heuris) 0.25
tic machine learning explanations with model counting. モデルカウントによるtic機械学習の説明。 0.83
In SAT, pages 267–278, 2019. SAT』267-278頁、2019年。 0.74
[29] R. S. Olson, W. La Cava, P. Orzechowski, R. J. Urbanowicz, and J. H. Moore. R. S. Olson, W. La Cava, P. Orzechowski, R. J. Urbanowicz, J. H. Moore. 0.91
PMLB: a large benchmark suite for machine learning evaluation and comparison. PMLB: 機械学習の評価と比較のための大規模なベンチマークスイート。 0.71
BioData Mining, 10(1):36, 2017. BioData Mining, 10(1):36, 2017 0.78
[30] C. H. Papadimitriou. [30] C. H. Papadimitriou. 0.94
Computational complexity. Addison-Wesley, 1994. 計算複雑性。 アディソン・ウェズリー、1994年。 0.60
[31] R. Reiter. 31] r. レイター 0.44
A theory of diagnosis from first principles. 第一原理からの診断の理論。 0.82
Artif. Intell., 32(1):57–95, 1987. Artif 原著『32(1):57-95, 1987』。 0.54
[32] M. T. Ribeiro, S. Singh, and C. Guestrin. [32]M. T. Ribeiro, S. Singh, C. Guestrin 0.88
"Why should I trust you? 「なぜ君を信用すべきなのか。 0.53
": Explaining the predictions of any classifier. 「予測の解説」 どんな分類器でも 0.67
In KDD, pages 1135–1144, 2016. KDD』1135-1144頁、2016年。 0.68
[33] M. T. Ribeiro, S. Singh, and C. Guestrin. [33]M. T. Ribeiro, S. Singh, C. Guestrin 0.87
Anchors: High-precision model-agnostic explana- アンカー -高精度モデル- 0.65
tions. In AAAI, 2018. イオンだ 2018年、AAAI。 0.43
[34] C. Rudin. [34]C.ルーディン。 0.66
Stop explaining black box machine learning models for high stakes decisions and 高い利害判断のためのブラックボックス機械学習モデルの説明をやめて、 0.64
use interpretable models instead. 代わりに解釈可能なモデルを使う。 0.59
Nature Machine Intelligence, 1(5):206–215, 2019. Nature Machine Intelligence, 1(5):206–215, 2019。 0.94
[35] W. Samek, G. Montavon, A. Vedaldi, L. K. Hansen, and K. Müller, editors. W. Samek, G. Montavon, A. Vedaldi, L. K. Hansen, K. Müller, editors. 0.85
Explainable AI: Interpreting, Explaining and Visualizing Deep Learning. 説明可能なAI ディープラーニングの解釈、説明、視覚化。 0.64
Springer, 2019. スプリンガー、2019年。 0.53
[36] A. Shih, A. Choi, and A. Darwiche. [36] A. Shih, A. Choi, A. Darwiche 0.86
A symbolic approach to explaining bayesian network ベイズネットワークを説明するための記号的アプローチ 0.67
classifiers. In IJCAI, pages 5103–5111, 2018. 分類器 IJCAI』5103-5111頁、2018年。 0.64
[37] A. Shih, A. Choi, and A. Darwiche. [37] A. Shih, A. Choi, A. Darwiche 0.85
Compiling bayesian network classifiers into decision ベイズネットワーク分類器をコンパイルして決定する 0.62
graphs. In AAAI, pages 7966–7974, 2019. グラフ。 AAAI』7966-7974頁、2019年。 0.69
[38] D. Slack, S. Hilgard, E. Jia, S. Singh, and H. Lakkaraju. D. Slack, S. Hilgard, E. Jia, S. Singh, H. Lakkaraju. 0.78
Fooling LIME and SHAP: adversarial ライムとシェープを騙す:敵意 0.55
attacks on post hoc explanation methods. ポストホックな説明方法への攻撃。 0.70
In AIES, pages 180–186, 2020. AIES、2020年180-186頁。 0.71
[39] J. Slaney. [39]j・スレイニー 0.64
Set-theoretic duality: A fundamental feature of combinatorial optimisation. 集合理論双対性:組合せ最適化の基本的特徴。 0.78
In ECAI, pages 843–848, 2014. ECAI 843-848頁。 0.43
[40] UCI Machine Learning Repository. [40]UCI機械学習リポジトリ。 0.64
https://archive.ics. uci.edu/ml, 2020. https://archive.ics. uci.edu/ml, 2020 0.51
[41] P. E. Utgoff, N. C. Berkman, and J. 41] P. E. Utgoff, N. C. Berkman, J. 0.89
A. Clouse. Decision tree induction based on efficient tree a. クロース 効率的な木に基づく決定木誘導 0.60
restructuring. Mach. Learn., 29(1):5–44, 1997. 再構成。 Mach 1997年、29(1):5-44頁。 0.57
[42] S. Wäldchen, J. MacDonald, S. Hauch, and G. Kutyniok. [42] S. Wäldchen, J. MacDonald, S. Hauch, G. Kutyniok。 0.93
The computational complexity of understanding binary classifier decisions. 計算の複雑さは バイナリ分類器の決定の理解。 0.73
J. Artif. Intell. J. Artif インテリ。 0.65
Res., 70:351–387, 2021. 背番号70:351–387, 2021。 0.53
[43] D. S. Weld and G. Bansal. 43] D. S. Weld と G. Bansal 0.86
The challenge of crafting intelligible intelligence. 知的な知性を創造する挑戦。 0.57
Commun. ACM, Commun acm。 0.52
62(6):70–79, 2019. 62(6):70–79, 2019. 0.88
Supplementary Material Proofs Deciding δδδ-relevancy. 補足材料 証明 δδδ-関連性を決定する。 0.55
Definition 7 (MajSAT[30]). 定義7(MajSAT[30])。 0.60
Given a boolean function f : {0, 1}n → {0, 1}, the MajSAT problem is to decide whether the number of points x with f (x) = 1 exceeds the number of points with f (x) = 0. ブール函数 f : {0, 1}n → {0, 1} が与えられたとき、MagSAT 問題は f (x) = 1 の点 x の数が f (x) = 0 の点数を超えるかどうかを決定することである。 0.83
It is well-known that MajSAT is PP-complete [30]. MajSAT が PP-完全[30] であることはよく知られている。 0.62
11 11 0.85
英語(論文から抽出)日本語訳スコア
Proposition 5. Deciding whether a set S is a Cδ-relevant set is PP-hard. 命題5。 集合 S が Cδ-関連集合であるかどうかを決定することは PP-hard である。 0.52
Proof. [Sketch] We reduce MajSAT to deciding Cδ-relevancy. 証明。 [Sketch]MagSATをCδ関連性の決定に削減します。 0.61
Let f : {0, 1}n → {0, 1} be a boolean function. f : {0, 1}n → {0, 1} をブール関数とする。 0.71
The variables of f are X = {x1, . f の変数は X = {x1, である。 0.88
. . , xn}. . . xn} である。 0.84
We want to decide whether Pr(f (x) = 1) > Pr(f (x) = 0). Pr(f(x) = 1) > Pr(f(x) = 0) かどうかを判断したい。 0.78
We create another function F : {0, 1}n × {0, 1}2 → {0, 1}, such that the variables of F are X and P = {p1, p2}. 別の関数 f : {0, 1}n × {0, 1}2 → {0, 1} を作成し、f の変数は x であり、p = {p1, p2} である。 0.83
Moreover, F is defined as follows: さらに、F は次のように定義される。 0.68
F (x, p) = (cid:26) 1 F (x, p) = (cid:26) 1 0.99
f (x) if p1 = p2 = 1 otherwise f (x) もし p1 = p2 = 1 なら 0.86
Set (xa, pa) = ((0, . xa, pa) = ((0, ) とする。 0.56
. . , 0), (1, 1)). . . , 0), (1, 1)). 0.83
Clearly, F (xa, pa) = 1. 明らかに F (xa, pa) = 1 である。 0.79
Moreover, set δ = 0.75 and pick S = {p1}. さらに δ = 0.75 とし、S = {p1} を選ぶ。 0.80
Now, if Pr(F (xb, pb) = 1|(xb, pb)S = (xa, pa)S) > δ iff the number of points with f (x) = 1 exceeds the number of points with f (x) = 0. このとき、Pr(F (xb, pb) = 1|(xb, pb)S = (xa, pa)S) > δ iff であれば、f (x) = 1 の点数は f (x) = 0 の点の数を超える。 0.82
✷ 12 ✷ 12 0.85
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。