論文の概要、ライセンス

# (参考訳) ディーゼルゲート様偽装防止法におけるより良いサンプリング法 [全文訳有]

Better sampling in explanation methods can prevent dieselgate-like deception ( http://arxiv.org/abs/2101.11702v1 )

ライセンス: CC BY 4.0
Domen Vre\v{s} and Marko Robnik \v{S}ikonja(参考訳) 機械学習モデルは、予測精度に加えて、理解性も重要である多くのセンシティブな領域で使用されている。 予測モデルの解釈可能性は、そのバイアスやエラーの原因を決定するために必要であり、ユーザの自信の必要条件である。 複雑な最先端のブラックボックスモデルの場合、ポストホックモデルに依存しない説明技術は確立されたソリューションです。 IME、LIME、SHAPなどのポピュラーで効果的なテクニックは、インスタンス機能の摂動を使用して個々の予測を説明します。 最近Slackなどが登場している。 (2020年)は, 摂動サンプリングが不十分なため, 結果が操作可能であることを示し, 頑健さを疑問視した。 この弱点は、調査を欺き、予測モデルに存在する非倫理的または違法なバイアスを隠蔽できる、機密性の高いモデルの所有者をディーゼルゲート型不正にすることを可能にする。 これにより、機械学習モデルに対する一般の信頼が損なわれ、その使用に関する法的制限が生じる可能性がある。 これらの説明方法のサンプリングが悪質な操作を防いでいることを示す。 提案するサンプリングは、トレーニングセットの分布を学習し、トレーニングセットに非常によく似た新しい摂動インスタンスを生成するデータジェネレータを使用する。 改良されたサンプリングによりLIMEとSHAPのロバスト性が向上し,以前に未試験のメソッドIMEがすでに最もロバストであることが示されている。

Machine learning models are used in many sensitive areas where besides predictive accuracy their comprehensibility is also important. Interpretability of prediction models is necessary to determine their biases and causes of errors, and is a necessary prerequisite for users' confidence. For complex state-of-the-art black-box models post-hoc model-independent explanation techniques are an established solution. Popular and effective techniques, such as IME, LIME, and SHAP, use perturbation of instance features to explain individual predictions. Recently, Slack et al. (2020) put their robustness into question by showing that their outcomes can be manipulated due to poor perturbation sampling employed. This weakness would allow dieselgate type cheating of owners of sensitive models who could deceive inspection and hide potentially unethical or illegal biases existing in their predictive models. This could undermine public trust in machine learning models and give rise to legal restrictions on their use. We show that better sampling in these explanation methods prevents malicious manipulations. The proposed sampling uses data generators that learn the training set distribution and generate new perturbation instances much more similar to the training set. We show that the improved sampling increases the robustness of the LIME and SHAP, while previously untested method IME is already the most robust of all.
公開日: Tue, 26 Jan 2021 13:41:37 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 6 2 ] G L . 1 2 0 2 n a J 6 2 ] G L . 0.85
s c [ 1 v 2 0 7 1 1 . s c [ 1 v 2 0 7 1 1 ] である。 0.79
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
SAMPLING DIESELGATE-LIKE サンプリングダイセルゲート様 0.26
BETTER PREVENT Domen Vreˇs, Marko Robnik-ˇSikonja University of Ljubljana, Faculty Veˇcna pot 113, 1000 Ljubljana, Slovenia domen.vres@siol.net, BETTER PREVENT Domen Vre's, Marko Robnik-'Sikonja University of Ljubljana, Faculty Ve'cna pot 113, 1000 Ljubljana, Slovenia domen.vres@siol.net 0.83
IN of Computer Information Science marko.robnik@fri.uni -lj.si 内 of Computer Information Science Marko.robnik@fri.uni -lj.si 0.58
and EXPLANATION DECEPTION METHODS そして 解説記述 方法 0.49
CAN learning models ABSTRACT are Machine predicbesides areas where, sensitive used in many tive their accuracy, of preInterpretability comprehensibility also is important. できる 学習モデル ABSTRACTは機械述語の領域であり、多くの動機でその精度で使用される敏感性は、事前解釈可能性の理解も重要です。 0.64
is necessary to diction models their biases and is a determine and of causes errors prerequisite for users’ confidence. ダイクションはバイアスをモデル化し、ユーザーの信頼のために必要不可欠なエラーの決定と原因です。 0.77
For complex state-of-the-art black-box models, post-hoc model-independent solution. 複雑な最先端のブラックボックスモデルの場合、ポストホックモデルに依存しないソリューション。 0.42
explanation techniques are an established perturbause and LIME, IME, such techniques, and Popular SHAP, effective as Recently, predictions. 説明手法は確立された摂動・LIME,IME,そのような技術であり,近年の予測に有効な人気SHAPである。 0.67
individual to features tion instance of explain Slack et al. 個々の機能 tion インスタンスは Slack などを説明します。 0.71
their put (2020) into question by showing that their outcomes can be robustness manipulated due to poor perturbation sampling employed. 彼らのput(2020年)は、摂動サンプリングが不十分なため、結果がロバストに操作できることを示すことで疑問を呈している。
訳抜け防止モード: 彼らの主張(2020年)は 摂動サンプリングが不十分なため 結果が堅牢であることを示します
0.55
This weakness would allow dieselgate type cheating of owners of sensitive models who could deceive unethical potentially hide and inspection predicexisting biases illegal their in or public undermine could This tive models. この弱点は、非倫理的な潜在的な隠れを欺く可能性のある機密モデルの所有者のディーゼルゲート型不正行為を可能にする。
訳抜け防止モード: この弱点は、敏感なモデルの所有者のディーゼルゲートタイプ不正行為を可能にするでしょう。 不道徳な潜在的な隠蔽と検査を 偏見を犯す恐れがある この tive モデルできます。
0.63
trust and in machine learning models give rise to legal restrictions on their use. 信頼と機械学習モデルでは、その使用に関する法的制限が発生します。 0.74
We show that better sampling in these explanation methods prevents malicious that manipulations. これらの説明手法のより優れたサンプリングにより、悪意のある操作が防止されることを示す。 0.52
The proposed sampling uses data generators training learn the to similar instances much more generate and set new perturbation distribution the training set. 提案されたサンプリングでは、データジェネレータトレーニングが、同様のインスタンスへの学習をより多く生成し、トレーニングセットに新しい摂動分布を設定する。 0.62
We show that the improved sampling increases the LIME and SHAP’s robustness, while the previously the most robust IME is already of all. 改良されたサンプリングにより LIME と SHAP のロバスト性が向上し,これまでで最もロバストな IME がすでに存在することを示す。 0.76
untested method is areas where legal 未試験の方法 は 法律上 0.56
performance, insurance, and na¨ıve Bayes, パフォーマンス、保険、そしてナ・シュヴェ・ベイズ。 0.47
1 INTRODUCTION Machine in many learning models besides used are their compredictive prehensibility also domain, in important, healthcare, e g , consultancy, banking, etc. 使用されるだけでなく、多くの学習モデルにおける1イントロダクションマシンは、重要な、医療、例えば、コンサルティング、銀行などにおいて、それらの予測的理解度もドメインです。
訳抜け防止モード: 1 IntroDUCTION Machineは、多くの学習モデルで使われているが、その説明的理解性もドメインである。 医療、eg、コンサルタント、銀行、etcなどです
0.64
Users in those areas often do not trust a machine learning model if they do not understand why it made a given decision. これらの領域のユーザは、与えられた決定を下した理由を理解できなければ、機械学習モデルを信頼しないことが多い。 0.75
such as decision trees, Some models, linear are regression, simple intrinsically to easier due to the representation understand used. 決定木、いくつかのモデル、線形は回帰であり、使用する表現を理解するため、本質的には簡単である。 0.66
However, complex models, boxes, to mostly are black incomprehensible accuracy, better due practice in used like behave and For random forests, support vector machines, e g , neural networks, and boosting. しかし、複雑なモデルやボックスは、ほとんどがブラックで理解不能な正確さで、振る舞いやランダムな森林、ベクトルマシンのサポート、例えばニューラルネットワーク、ブーストといった使い方がうまく行なっています。 0.66
these models, the intelligence (XAI) has developed post-hoc explanation methods area of explainable artificial that are model-independent and determine importance feature outcome. これらのモデルであるインテリジェンス(XAI)は、モデル非依存で重要な特徴結果を決定する説明可能な人工物のポストホックな説明手法を開発した。 0.67
for predicted Frethe IME (ˇStrumbelj & Kononenko, used methods quently al., et 2013), LIME (Ribeiro type this of 2016), and SHAP (Lundberg & Lee, 2017). 予言したFrethe IME(Strumbelj & Kononenko, used method quently al., et 2013)、LIME(Ribeiro type this of 2016)、SHAP(Lundberg & Lee, 2017)。 0.72
To determine the these methods use perturbation sampling. これらの方法を決定するには摂動サンプリングを用いる。 0.64
importance, features’ (2020) al. importance, features' (2020) al. 0.85
Slack et in this noticed recently data that the significantly distribution obtained way is from the different this that showed They Figure in illustrate as we of distribution original the 1a. Slackなどが最近行ったデータによると、この方法で得られた分布は、分布のオリジナルである1aの図に示すように、それらとは異なるものだ。 0.72
data training can explanation post-hoc possibility The these methods. データトレーニングは、これらの方法をホックな後に説明できる。 0.51
serious weakness be a of the to manipulate robustness the ML problem for reliability critical community, methods is a as the and of explanation methods essential for use and public acceptance. 深刻な弱点は、信頼性クリティカルなコミュニティのためのML問題を堅牢に操作するための方法であり、方法は、使用と公衆の受け入れに不可欠な説明方法の1つです。 0.57
These methods are used to interpret are their otherwise black-box models, help in debugging models, and reveal models’ biases, thereby estabexplanation methods behavior. これらのメソッドは、そうでなければブラックボックスモデルであると解釈し、モデルデバッグを助け、モデルのバイアスを明らかにするために使われます。 0.64
Non-robust lishing to that in lead can be manipulated their trust sexist, or otherwise biased models catastrophic explanations do not detect as consequences, racist, if cheating where ownThis would enable dieselgate-like these biases. リードのそれに対する非ロバストなリッシングは彼らの信頼のセクシストを操ることができるし、さもなければバイアスのあるモデル 破滅的な説明は結果として検出されない。 0.63
the model owner wants to hide ers sensitive biases could hide the legally unacceptable モデル所有者は ERSに敏感な偏見を隠そうとしてる 法的に受け入れられない 0.57
prediction models socially, morally, 予測モデル 社会的に 道徳的に 0.69
the are can of はあ できる ですから 0.53
each of or 各々 ですから あるいは 0.69
1 1 0.85
英語(論文から抽出)日本語訳スコア
a) the main attempts. b) PCA based visualization Figure 1: a) of a part of the COMPAS show the blue points The dataset. a) 主な試み。 b) PCAベースの可視化図1: a)Compasの一部は青い点を示していますデータセット。 0.71
instances represent points red and original instances, the sampling the generated with perturbation different. インスタンスはポイント赤とオリジナルインスタンスを表し、摂動で生成されたサンプリングが異なる。 0.67
distributions LIME method. distributions LIME メソッド。 0.74
used in the The are notably attack on of The idea the b) explanation methods based on the difference of distributions. The で使用されるのは、特に the の攻撃である。 b) 分布の差に基づく説明方法。 0.77
conadversarial model attacker’s The tains both the biased and unbiased model. conadversarial model attack’s the tains both the biased and unbiased model (英語) 0.82
The decision function that is part of the cheating model the original distribution (i.e. 不正行為モデルの一部である決定関数は、元の分布(すなわち。 0.76
is outside decides an actual explanation) or instance the if used only for the result of instance, equal adversarial model the to the If instance. is outside decides the actual description) or instance if used only for the result of instance, equal adversarial model the to the if instance。 0.77
the case of an actual is result of the unbiased model. 実際の場合、偏りのないモデルの結果である。 0.68
the biased model, otherwise it is equal to the result of 1b in their models. バイアスモデル、さもなければそれは彼らのモデルの1bの結果に等しいです。 0.78
present As the schema of the attack on explanation methods on Figure shows, preunbiased and examined their models detect when could prediction models owners are of return consequences serious have use. 図上の説明方法に対する攻撃のスキーマが示すように、予測モデルの所有者が真剣な結果のリターンである場合、モデルがいつ検出し、調査します。 0.68
in predictions and case dictions This could in normal biased this in predictive models’ areas where reliability and fairness are essential, e g , in healthcare or banking. 予測とケースディクショニングでは、これは通常、医療や銀行など、信頼性と公平性が不可欠である予測モデルの領域に偏っている可能性がある。 0.76
Such weaknesses can undermine users’ trust in machine learning models in general and slow down technological progress. このような弱点は、機械学習モデルに対するユーザの信頼を損なう可能性があり、技術的進歩を遅くする。 0.62
change we work, In propose to this perturbation-based and make explanation methods to manipulation them more resistant In our solution, the problematic perturbation-based replaced with more sampling is advanced uses modern that better generators data capture the distribution of the training dataset. 私たちのソリューションでは、問題のある摂動ベースをより多くのサンプリングに置き換えることで、より優れたジェネレーターデータがトレーニングデータセットの分布をキャプチャする現代的使用が進んでいます。 0.64
We test three generators, the RBF network based gen(Robnik-ˇSikonja, semiArtificial in R library erator available random forest-based 2016), generator, (Robnik-ˇSikonja, 2019), al., 2019). rbfネットワークベースのgen(robnik-ssikonja, semiartificial in r library erator available random forest-based 2016), generator, (robnik-ssikonja, 2019), al., 2019)の3つのジェネレータをテストした。 0.76
autoencoders the generator using variational as well (Miok et as the modified are much more gSHAP methods than We show that gLIME and robust their original previously was versions. 自動エンコーダ 変分を用いたジェネレータ (Miok などの修正版は gSHAP メソッドの方が gLIME やロバストなオリジナルのバージョンよりもはるかに多い。 0.64
IME method, which show that it is already quite For the not analyzed, we license1. IMEメソッド、それはすでにかなりであることを示す 分析されていないために、我々はライセンス1。 0.67
open-source the modified explanation methods release robust. 修正された説明方法をオープンソースで公開する。 0.56
We the under explanation method against of notion as the of term robustness the use this work, we In resilience classifier in explanation method an to ability biased as adversarial attacks, i.e. 本研究は, 概念のロバスト性に対する説明法として, レジリエンス分類器を用いて, 逆攻撃としてバイアスを受ける能力に対する説明法である。 0.73
the of recognize the the number of robustness could be more formally defined as type of an adversary environment. 強靭性の数を認識することは、より正式に敵の環境のタイプとして定義できる。 0.70
This the on the instances where robustness focus recognized. これは、堅牢性が焦点が認識されているインスタンスです。 0.52
We correctly bias was adversarial model’s There (2020). We correct bias was adversarial model’s There (2020)。 0.77
in Slack described concerning notions other are et al. slackでは、他の概念について説明されている。 0.54
of robustness exthe attacks planation methods; e g , robustness of the explanations (Alvarez-Melis & Jaakkola, 2018) define the in the sense that similar inputs should give rise to similar explanations. 例えば、説明の堅牢性 (Alvarez-Melis & Jaakkola, 2018) は、類似の入力が同様の説明をもたらすという概念を定義している。 0.54
backnecessary the Section organized paper of remainder The present 2, we In follows. backnecessary セクション組織紙の残りの部分 現在 2、我々 は次の通りです。 0.78
as is the In Section 3, ground and related work on explanation methods, attacks on them, and data generators. 第3節と同様に、説明方法、それらに対する攻撃、およびデータジェネレータに関する基礎および関連作業。 0.71
propose we and against Section 4, in explanation methods, a defense the described weaknesses of In Section 5, we draw conclusions we ideas empirically evaluate the proposed solution. 我々は,第4節に対して,第5節の弱点を説明するために,提案した解決策を実証的に評価する結論を導出する。 0.80
and present further work. さらなる仕事を提示します 0.59
for BACKGROUND 2 section, we first briefly describe the background on post-hoc explanation methods and attacks In this on them, followed explanation methods. 背景 2 節では、まず、ポストホックな説明方法の背景と、それに対する攻撃について簡単に説明し、説明方法に従います。 0.64
RELATED WORK sampling, which 関連作業 サンプリングして 0.59
related works robustness AND 関連作品 頑丈さ と 0.61
by data generators データによって 発電機 0.64
and on the そして オン はあ? 0.57
of a in ですから あ... で 0.47
POST-HOC 2.1 current The plain predictions 1https://github.com/ domenVres/Robust-LIM E-SHAP-and-IME POST-HOC 2.1 current The plain predictions 1https://github.com/ domenVres/Robust-LIM E-SHAP- and-IME 0.38
EXPLANATION METHODS perturbation-based instances. ExpLANATION METHODS perturbation-based instance 0.81
To state-of-the-art individual for へ 最新技術 個人 ですから 0.55
explanation methods, form an of a 説明法、aを形成する 0.69
explanation IME, given 説明 IME (複数形 IMEs) 0.59
and LIME, exSHAP, they measure instance, LIME、exSHAP、インスタンスを計測します。 0.58
2 2 0.85
英語(論文から抽出)日本語訳スコア
instances with instance with... 0.41
the explanation methods, we prediction the difference in obtained instances, neighboring instance original the between and its interlocal builds the LIME method instances, the Using sampling. はあ? 説明方法や 得られたインスタンスの違いを予測し、隣接するインスタンスは、そのローカル間でLIMEメソッドインスタンス、Useampleを構築します。 0.47
perturbation with generated a SHAP a e g , pretable model, IME methods linear model. 生成されたSHAP a e g ,pretable モデル,IME メソッドの線形モデルによる摂動。 0.83
The and determine of the impact the values Shapley features as theory from the coalitional game (Shapley, 1988). シャプリーの持つ影響とその決定は、連立ゲーム(shapley, 1988)の理論として特徴付けられる。 0.63
In this way, they as(ˇStrumbelj & Kononenko, sure that the produced explanations obey the four Shapley fairness axioms try both methods value 2013). このようにして、as(strumbelj & kononenko)は、生成された説明が4つのシャプリーフェア性公理に従うことを確信する。
訳抜け防止モード: このようにして、彼らは(strumbelj & kononenko)。 生成された説明は、shapley fairness axioms try both methods value 2013 に従う。
0.71
calculation, Shapley complexity time exponential to to of the Due formal above in explained references, approximate them. 計算、説明された参照で上記のデュー形式に指数関数的なShapley複雑さ時間、それらを近似します。
訳抜け防止モード: 計算, シャプリー複雑性時間 説明参照において上述のDue形式に指数関数的に 近似してみろ
0.77
The three methods are detail in the and a In our overview is presented in Appendix A, while below, we present a brief description. 3つの方法が詳細に説明されており、概要は付録Aで示されていますが、以下に簡単な説明を示します。 0.68
exposition denote with of the the predictive model and with x the instance we are f explaining. exposition は予測モデルを示し、x では f のインスタンスを説明する。 0.65
of LIME method Explanations an The obtained with is to be both locally accurate (so that model g has feature contributions) and simple it can obtain correct interpretable). LIME メソッドの解説 得られたものは局所的正確かつ(モデル g が特徴的寄与を持つように)、単純で正確な解釈が可能である。 0.81
Therefore in LIME, g (so that is it trained on the instances is a linear regression model perturbed normalized.The x, which instance explained the of in sampled first is the neighborhood noise generated are instances explanation independently. したがって、LIMEでは、g(つまり、インスタンス上で訓練される)は線形回帰モデルに摂動正規化され、サンプルとして最初に説明されるxは、独立して生成された近傍ノイズである。
訳抜け防止モード: したがって LIME では g ( ですから インスタンス上でのトレーニングは 線形回帰モデルで 正規化されています サンプルとして最初に説明されるxは、独立に生成された近傍ノイズである。
0.78
by adding Gaussian feature to each contributions the to Using linear models determine of features, LIME is fast poor produce explanations for instances close boundaries. 各コントリビューションにガウス機能を付加することにより、線形モデルが特徴を決定することにより、LIMEはインスタンスの境界に近い説明を迅速に生成することができない。 0.54
to complex decision linear models computed with local SHAP estimates Shapley values using the approach of LIME (i.e. 局所SHAPで計算された複雑な決定線形モデルへ LIMEのアプローチを用いてShapley値を推定する。 0.82
local neighborhood the weighted using algorithm) for loss and different a but squares accuracy, which ensures explanation instances in sampling of The are obtained. ローカル周辺(アルゴリズムを使用して重み付け)損失と異なるaの正方形の精度のため、Theのサンプリングにおける説明インスタンスが得られます。 0.70
that Shapley values SHAP relies on the distribution set D, obtained from the training set, by computing the centroids of k-means clusters. Shapley値SHAPは、k平均クラスタのセントロイドを計算することによって、トレーニングセットから得られる分布セットDに依存する。 0.67
interpretable an proxy (no sampling a using values Shapley computes IME pure with selected features explained instance with existing values of sampling replaces part of the model). プロキシを解釈する(使用値のサンプリングは行わない) Shapleyは、選択された機能でIMEを純粋に計算し、既存のサンプリングの値がモデルの一部を置き換える)。 0.54
Its This makes and instance explained of differences averages in prediction the samples. これは、サンプルの予測における差平均について説明します。 0.72
and then the potentially more as robust but method slower assume also the method does not the the shape of dependency. そして、潜在的にロバストだがメソッドが遅い場合、メソッドは依存性の形ではないと仮定する。 0.65
of x but may x ではなく 5 の 0.49
interpretable model g. 解釈可能なモデル g. 0.74
least function approach 少なくとも 機能 アプローチ 0.72
2.2 ATTACKS 2.2 ATTACKS 0.72
ON EXPLANATIONS that the The explanations attack of idea presented on et al. オン 解説 et alに提示されたアイデアの 説明攻撃についてです 0.56
Slack in (2020) attacker the is creates (biased) model whose adversarial an behavior it wants hide to from explanation methods, e g , a racist model that does grant credits to blacks. Slack in (2020) attack the is created (biased) model that adversarial an behavior that they want to hide to explain method, e. は、黒人に信用を与える人種差別的モデルである。 0.85
not Figure As 1b part illustrates, a of the attacker’s as such attributes disputed does e g , unbiased model, which, an is adversarial model race not take adversarial model behaving to manipulate tries account. not 図1bの部分が示すように、そのような属性が争っている攻撃者の1つは、例えば、偏見のないモデルであり、これは、isversarialモデルレースは、アカウントを操作するために悪意のあるモデルを取ることはありません。 0.63
The into the explanation method by like instances an unbiased model on perturbed used for the explanation – in this case, it uses the unbiased model’s output. 説明方法の例のように、説明のために使用される摂動の非バイアスモデルの例のように、この場合、非バイアスモデルの出力を使用する。 0.77
On instances from the original part of normal model distributions that are a distinguish output. 区別出力である通常のモデル分布の元の部分からのインスタンスについて。 0.76
biased model’s the use, and original the between the uses adversarial model To data, perturbation-sampled the adversarial model contains decision model that selects right the a type (biased or unbiased) based of model type on the predicted of instances. バイアスモデルの使用、および使用の対向モデル間のオリジナルデータ、摂動サンプリング 対向モデルは、予測されたインスタンスのモデルタイプに基づいて、型(偏りまたは偏りのない)を右に選択する決定モデルを含む。 0.87
incan that The reason the function distinguish between the original decision data and sampled (see sampling perturbation of shortcomings are stances Figuse that explanation methods the the (see the COMPAS on For ure dataset 4) Section new instances created that 1a). 関数が元の決定データとサンプルデータとを区別する理由(欠点のサンプリング摂動を参照) 説明方法を説明する姿勢(ureデータセット4のCompASを参照) セクション1aが作成した新しいインスタンス。
訳抜け防止モード: その理由は 元の決定データとサンプル(欠点のサンプリング摂動を参照)を区別する関数 は、説明メソッドがthe(ure dataset 4のcompas onを参照)セクション 1a で作成された新しいインスタンスである、というスタンスです。
0.77
graph, we based sampled noise with the Gaussian as in the LIME explanation method. グラフは,ライム説明法のようにガウス音を用いたサンプル雑音を用いた。 0.69
We mapped the original and can see to 2D space using the PCA transformation. オリジナルをマッピングし,PCA変換を用いて2次元空間に表示した。 0.78
We sampled data instances that the is distributed differently than the original data. 元のデータと異なる方法で分散するデータインスタンスをサンプリングしました。 0.69
PCA, other machine learning is revealed with the difference data. PCA、その他の機械学習は差分データで明らかにされる。 0.78
original and sampled between distinguish effectively can also algorithms defined can and a has following way. 区別間のオリジナルとサンプルは、Canとaが次の方法で定義されたアルゴリズムも効果的にできます。
訳抜け防止モード: オリジナルとサンプルは 効果的に区別できる アルゴリズムも定義できます Aは次の道をたどっています
0.67
the The in attack be formally The attacker a biased model b attacker has no additional the distribusample S from the distribution Xdist. in攻撃は公式には、偏りのあるモデルb攻撃者は、分散xdistからのdistribusample sを追加しない。 0.74
The information about the data tion Xdist. データ tion Xdist に関する情報です。 0.67
The attacker’s goal is to produce an that behaves adversarial model like on b e also attacker that assume explanation methods. 攻撃者の目標は、説明方法を想定したb e攻撃者のように逆のモデルを実行することです。 0.78
We b’s bias but does not from Xdist the to the reveal the f’s bias. we b はバイアスだが、xdist から f のバイアスを明らかにするまでには至らない。 0.67
The attacker has an unbiased model ψ that hides should creates a decision model d, that otherwise. 攻撃者は偏りのないモデル ψ を持ち、それ以外は決定モデル d を作成する必要がある。 0.74
and instance output if the input is from Xdist The model is trained on and d 0 x 1 S the creates generated perturbation samples. そして、入力がxdistからのものである場合、モデルがトレーニングされ、d 0 x 1 sが生成した摂動サンプルを生成する。 0.72
The attacker e with its output defined adversarial model 攻撃者eとその出力定義された敵モデル 0.76
As 3 として 3 0.66
英語(論文から抽出)日本語訳スコア
by the e(x) = ところで e(x) = 0.73
(1) is (AE) (1) は (AE) 0.81
equation: following consists of 方程式: 以下 はじまります 0.63
called encoder エンコーダと呼ばれる 0.61
d(x) = 1 d(x) = 0 d(x) = 1 d(x) = 0 0.85
(cid:26)b(x), ψ(x), DATA 2.3 GENERATORS distribution the algorithms, different based generators data three We modeling different used on RBF al., autoencoder variational 2019), Carlo (Miok et dropout with Monte the of training set: (Robnik-ˇSikonja, (Robnik-ˇSikonja, ensemble In rethe 2016), network and random forest 2019). (cid:26)b(x), s(x), data 2.3 GENERATORS distribution the algorithm, different based generators data 3 We model different used on RBF al., autoencodervarial 2019), Carlo (Miok et dropout with Monte the of training set: (Robnik- sSikonja, (Robnik- sSikonja, ensemble In rethe 2016), network and random Forest 2019) 0.83
rbfDataGen, mainder of refer to the listed generators consecutively as MCD-VAE, and the paper, we TreeEnsemble. rbfdatagen, mainder of the listed generators following as mcd-vae, and the paper, we treeensemble. (英語) 0.75
to compress Autoencoder two neural networks instances by passing them through the encoder and then reconstructing them to the original the input it can be used to generate new instances. Autoencoder 2つのニューラルネットワークインスタンスを圧縮するには、エンコーダを通過して元の入力に再構築し、新しいインスタンスを生成するために使用できる。 0.79
Variational values with the decoder. デコーダによる変動値。 0.62
Once the AE is trained, vectors the of special is 2016) autoencoder latent in where autoencoder, type the (Doersch, a z of Encoder distributed. aeがトレーニングされると、vectors the of special is 2016) autoencoder latent in where autoencoder, type the (doersch, a z of encoder distributed。 0.69
normally decoder) the is dimension and input of are encoder the (output p(z|x) ∼ N (µx, Σx). 通常はデコーダ) is 次元と入力は (出力 p(z|x) > N (μx, Σx) エンコーダである。 0.81
p(z|x), where we approximating distribution therefore assume posterior the The proposed by Miok et al. したがって、分布を近似する p(z|x) は、Miok らによって提案された The の後方を仮定する。
訳抜け防止モード: p(z|x ) ここで したがって分布の近似はmiokらによる提案の後方を仮定する。
0.80
(2019) uses the Monte Carlo dropout (Gal & Ghahramani, generator the the propagate this idea The decoder. (2019) はモンテカルロのドロップアウト(Gal & Ghahramani)を用いて、このアイデアを伝達するデコーダを発生させる。 0.76
trained the 2016) through instance generator of on to x obtain encoder propagated many be through its latent encoding z. to x のインスタンスジェネレータを通じて、多くの be が潜伏エンコード z を通じて伝播するエンコーダを得る。 0.67
This can times decoder, to the the Monte Carlo obtaining every time a different result due to dropout but preserving similarity to the original instance x. in The RBF network units (Moody & Darken, neural a (Robnik-ˇSikonja, network. これは RBF ネットワークユニット (Moody & Darken, ニューラル a (Robnik-\Sikonja, ネットワーク) において、ドロップアウトによって異なる結果が得られるが、元のインスタンス x と類似性を維持するモンテカルロに、デコーダを回すことができる。 0.76
the Once network’s 2016) can sample from the normal distributions, defined with obtained Gaussian kernels, to generate new instances. once network’s 2016)は、得られたガウスカーネルで定義された正規分布からサンプルを採取して、新しいインスタンスを生成することができる。
訳抜け防止モード: Once Network の 2016 ) は正規分布からサンプリングできる。 得られたガウス核で定義される。 新たなインスタンスを生成します
0.74
(Robnik-ˇSikonja, that (forest) derandom trees set builds 2019) a of generator The TreeEnsemble to the leaves of from the root traverses the generator scribe the data. (robnik-ssikonja, that (forest) derandom trees set set 2019) of generator the treeensemble to the leaves from the root traverses the generator scribe the data。 0.75
When generating new instances, features values setting tree, chosen randomly the way. 新しいインスタンスを生成する場合、ツリーを設定する値をランダムに選択する。 0.74
When reaching on decision in the nodes of a assumes the remaining Therefore, features. ノードの決定に達すると、残りの結果、機能を想定します。 0.58
between dependencies the that a leaf, it it has captured features can be generated independently according to the observed empirical distribution in this leaf. この葉の観察された経験的分布に従って、葉が捕捉された特徴を独立して生成することができる。 0.81
can attributes all instance, generated each For can tree another one in generated be ranbe or leaf, are values domly different selected where unassigned feature filled in. can 属性すべてのインスタンス、生成された各 For は、生成されたランビーまたはリーフの別のインスタンスをツリーできます。 0.54
By selecting different trees, features are set in the interior nodes and leaves. 異なる木を選択することで、内部ノードと葉に特徴が設定される。 0.76
uses Gaussian 1989) parameters are learned, the 使用 ガウス 1989) パラメータが学習されます。 0.78
hidden layer generator kernels as rbfDataGen 隠れ層発生器 rbfDataGenとしてのカーネル 0.67
and decoder. It そしてデコーダー それ 0.59
aims to of the 目的 へ ですから はあ? 0.55
robustness proposed perturbation RELATED WORK 2.4 EXPLANATIONS OF ROBUSTNESS ON by explanation methods were based perturbation on attacks adversarial The due based vulnerable are and who (2020), show that LIME SHAP in SHAP and IME based on better exposed weakness solution to the used. 頑丈さ 摂動を提案 提案手法によるROBUSTNES 2.4 ExpLANATIONs of ROBUSTNES ON was based perturbation on attack adversarial The due based vulnerable is and who (2020), show that LIME SHAP in SHAP and IME based on better exposed weak solution to using。 0.61
We propose the distribution. 我々は分布を提案する。 0.76
generators using set training adapted to the data been the general, In so researched. データセットに適合したセットトレーニングを使用するジェネレータは一般的に研究されている。 0.62
has explanation methods poorly far explanation methods blindly claims that post-hoc they not shall be as trusted, and disguise gender (deliberately or not) and racial discrimination (Lipton, 2016). 説明方法が不十分な場合、説明方法が盲目的に、ポストホックは信頼されないと主張し、性別や人種差別を偽装する(Lipton, 2016)。
訳抜け防止モード: 説明方法が不十分で、説明方法を盲目的に主張します。 そして性別(意図的にまたはない)および人種差別(リプトン、2016年)を偽装します。
0.73
even showed (2017) et and Kroll (2018) transparent, completely is a model if that al. 2017年) et と kroll (2018年) も透明であり、それが al であるなら完全にモデルである。 0.54
variables. correlated existence of to bias due and prevent detect the saliency map on exist Specifically, for deep neural networks and images, there adversarial attacks al., et 2019; Heo the model’s based interpretation of predictions, which can hide bias (Dombrowski network bias a that showed (2020) Dimanov al., et et neural 2019). 変数。 ディープニューラルネットワークとイメージでは、敵の攻撃al., et 2019; heo このモデルに基づく予測の解釈は、バイアスを隠すことができる(dombrowski network bias a which showed (2020) dimanov al., et neural 2019)。
訳抜け防止モード: 変数。 バイアスとそれによる予防との関連性 レジリエンスマップの存在を検知する 具体的には、ディープニューラルネットワークとイメージには、al ., et 2019; heo the model ベースの予測解釈に基づく敵の攻撃がある。 バイアスを隠せるのです dmbrowski network bias a that showed (2020 ) dimanov al ., et et neural 2019) の略。
0.72
a of al. et 2019; Ghorbani al., explanation methods by training a modified classifier could be hidden from post-hoc that has similar significantly feature chosen the performance the to original one, but importance of the is lower. A. al. Ghorbani al., 修正された分類器の訓練による説明方法は、同様の特徴を持つポストホックから隠すことができます。
訳抜け防止モード: A. al. et 2019 ; Ghorbani al., 説明方法による。 訓練 修正された分類器はpost-hocから隠すことができます。 同様の特徴を持ち、パフォーマンスをオリジナルに選びました。 しかし 重要度は低いのです
0.65
overcomes (2020), by Chakraborty kNN-based The explanation method, proposed et al. overcomes (2020), by Chakraborty kNN-based The description method, proposed et al。 0.85
tries to the instances inadequate perturbation based sampling used in explanation methods by finding similar to inadequate solution This new samples. 説明法で使用される不適切な摂動に基づくサンプリングは、この新しいサンプルの不十分な解に似たものを見つけようとする。 0.67
generating instead in one explained the of training the set is explanations. 代わりに生成する 一つでは、セットのトレーニングは説明であると説明した。 0.54
problem space as problems for Our realistic the is not dense enough get reliable defense of current post-hoc methods is based on superior sampling, which has not yet been tried. 問題空間としての我々の現実的な問題は、現在のポストホック法に対する信頼性の高い防御は、まだ試されていない優れたサンプリングに基づいている。 0.61
are There can mislead users Selbst & Barocas to hard is Selbst & Barocasを難しいものにするのはなぜか? 0.56
Slack al. et sampling sampling Slack al。 et サンプリングサンプリング 0.73
to it 4 へ それ 4 0.73
英語(論文から抽出)日本語訳スコア
et Saito prevent the adversarial 敵対する相手を防げる。 0.44
al. the (2020) attacks アル はあ? (2020年)攻撃 0.53
use the described neural CT-GAN model et in Slack attacks on post-hoc explanations. 上記を使用する Slackの神経CT-GANモデルなど、ポスホック後の説明に対する攻撃。 0.62
to (2020). 2020年)に登場。 0.66
We al. generate more are aware 私たち アル 多くを生み出すことは 0.51
not realistic of any samples other だめだ 現実的に 他のサンプル 0.63
for LIME and defenses against LIMEと防御のために 0.87
inadequate Gaussian in is SHAP and LIME instances adding by from clusters obtained ガウス語で不適切な 得られたクラスタから追加されるSHAPおよびLIMEインスタンス 0.52
in used sampling these normalized the noise to advance with the k-means 使用済みサンプリングでは、これらのノイズを正常化し、k平均で前進する 0.58
3 ROBUSTNESS BETTER THROUGH SAMPLING that the We the against adversarial explanation methods attacks on the replaces propose defense problematic perturbation sampling with a better one, thereby making the explanation methods more determine attacker the in data explanation the generate robust. 3ROBUSTNESS BETTER THROUGH SAMPLING that the We the against adversarial description method attack on the replacesは、より良いものと防衛問題的な摂動サンプリングを提案し、それによって説明方法がより攻撃者をデータ説明で決定し、堅牢を生成する。 0.76
We want cannot that such a way to sampling, improved an With data. Withデータをサンプリングし、改善するための、そのような方法が望まないのです。 0.63
original from the obtained or sampled an whether instance is generated instance x was the determine whether not 1b in Figure adversarial model the shall shown by the or it is the original instance the model has to label. 得られたまたはサンプリングされたインスタンスから、インスタンスが生成されたかどうか x は、図の逆モデルの 1b が、モデルがラベル付けしなければならない元のインスタンスであるかどうかを判断するものである。 0.67
With a better data explanation method, generator, cannot adjust its output properly and the deception, described in adversarial model the ineffective. より良いデータ説明法により、ジェネレータはその出力を適切に調整することができず、敵モデルで記述された偽造は非効率である。
訳抜け防止モード: より良いデータ説明方法では、ジェネレータは出力を適切に調整できません 逆境モデルで説明されている 偽装は非効率です
0.70
becomes 2.2, Section the reason described weakness for The of samples new methods. 2.2 セクション サンプルの新しいメソッドの弱点を説明した理由。 0.73
Recall that LIME feature values. LIME の機能値を思い出します。 0.68
SHAP samples new instances data. SHAPは新しいインスタンスデータをサンプリングする。 0.63
training algorithm from the generate noise with LIME, we the Gaussian using of Instead instance samples explanation each for generators, MCD-VAE, one with of the three better data rbfDataGen, (see SecTreeEnsemble or gLIME explanation methods tion 2.3). LIME を用いた生成ノイズからのトレーニングアルゴリズムでは,各ジェネレータのインスタンスサンプルである MCD-VAE と,より優れた3つのデータ rbfDataGen のそれぞれを例示する(SecTreeEnsemble や gLIME の説明方法 tion 2.3)。 0.84
We call the improved generatorstands and gSHAP (g for based). 改良された generatorstands と gshap (ベースは g) と呼ぶ。 0.69
Using adversarial the in function the explanation methods, generators better decision the in model will less likely determine which are original and which are generated for predicted instances the explanation purposes. in関数の逆数を使って、ジェネレータは説明方法をよりよく決定し、inモデルがどのオリジナルであるか、どの予測されたインスタンスで説明目的に生成されるのかを判断する可能性が低い。 0.56
using MCD-VAE, instance the data in given the Concerning gLIME, we generate the vicinity of and rbfDataGen generators, we do not local model. MCD-VAE を使用して、たとえば、関連する gLIME が与えられたデータを、rbfDataGen ジェネレーターの近傍と rbfDataGen ジェネレーターで生成します。 0.68
Using the TreeEnsemble LIME method builds a the the in proximity measure to it leave given of data the generate the neighborhood but instance closer to to give higher weights LIME method one. TreeEnsemble LIMEメソッドを使用することで、近隣で生成したデータから得られる近距離測度を構築するが、例えば、より高重量のLIMEメソッドに近づいた。 0.78
explained instances the to instance explained In SHAP, the perturbation sampling replaces the of values hidden features in the ignores it is approach this problem with The set D. distribution from the values the with the that size, house two dataset with a features. SHAPでは、摂動サンプリング(perturbation sample)が、無視された機能に隠された値を置き換える。 この問題にアプローチしている。 セットDは、そのサイズで値から分布し、2つのデータセットに特徴を格納する。
訳抜け防止モード: 説明された例 SHAPで説明されたToインスタンス。 摂動サンプリングは無視する 隠された特徴の値を置き換える is approach this problem with the set D. distribution from the values that the size。 特徴を持つ2つのデータセットを格納する。
0.83
dependencies simple and features, example, For between in that we the price, two house let us assume hide the house price, not house size. 依存関係 シンプルで機能 例えば、価格の面では、2つの家は家のサイズではなく家の価格を隠すと仮定します。 0.73
These features but are independent because the price of house increases with size. これらの特徴はあるものの、住宅の価格が大きくなるため独立している。 0.60
Suppose we are explaining not a its an instance that represents a large house. 大きな家を表す例ではないと仮定します。 0.51
Disregarding the dependency, using the sampled set D, set. 依存関係を無視して、サンプルセットDをセットします。 0.69
training appeared instances such low price, instances with several creates SHAP the In in as a the this way, contains many instances with a sampled set small price assigned to a large house, from perturbation which the attacker can determine that these instances were created in sampling and serve only for the explanation. トレーニングは、このような低価格のインスタンスが出現し、いくつかのインスタンスは、インをこの方法で作成し、これらのインスタンスがサンプリングで作成され、説明のためにのみ役立つことを攻撃者が判断できる摂動から、大きな家に割り当てられたサンプルセットの小さな価格を持つ多くのインスタンスが含まれています。 0.65
generators, the MCD-VAE and TreeEnsemble using gSHAP, proposed the In distribution the set D of instances, the In the is generated in the vicinity explained sampled some feature instance. gSHAP を使用した MCD-VAE と TreeEnsemble のジェネレータは、インスタンスのセット D を配布する際、In は、ある機能インスタンスのサンプルとして説明された近傍で生成される。 0.64
values generated values, of the explained instance are replaced with but the well-informed the generators the consider between features original distribution. 説明されたインスタンスの値を生成する値は置き換えられるが、機能間の考慮されたジェネレータは元の分散に置き換えられる。 0.63
This will make dependencies in detected the our In distribution. これにより、検出されたour in distributionの依存関係が生まれます。 0.58
original the similar very instances generated distribution the example, to the of proposed approach generates new instances around the instance representing a large house, and most dependencies, dataset’s original the capture generators the large. 類似したインスタンスが生成した例と、提案されたアプローチの例は、大きなハウスを表すインスタンスの周りに新しいインスタンスを生成し、ほとんどの依存関係、データセットのオリジナルのキャプチャジェネレータが大きなものを生成します。 0.71
As these trained be houses will of recognize these instances will also higher prices. これらの訓練を受けた家がこれらのインスタンスを認識するので、価格も高くなります。 0.46
This will make it difficult for the attacker to have the generated instances explanations. これにより、攻撃者が生成されたインスタンスの説明を行うのが難しくなる。 0.66
The advantage of generating the distribution close in used set is demonstrated to the observed instance of generation support not does generator instance. 使用済みセットで分布クローズを生成する利点は、ジェネレータインスタンスをしない生成サポートの観察されたインスタンスに示されます。 0.70
given a around instances the The rbfDataGen instance for and not each training on based set the whole set sampled Therefore, we generate the distribugenerating the than This for TreeEnsemble). aroundインスタンスが与えられると、各トレーニングがサンプリングされたセット全体をセットするのでなく、rbfdatagenインスタンスが、treeensembleのそれよりも多く生成するdistribugenerating the thanを生成する)。
訳抜け防止モード: a aroundインスタンスが与えられたら、 rbfDataGenインスタンスは、各トレーニングをベースとしたセット全体に基づいていない。 TreeEnsemble ) に対して、このディストリビューションを生成します。
0.69
is worse separately (we have this option also tion set around the explained instance but sampling in than generating it using the k-means still better larger. このオプションは説明されたインスタンスの周りにも設定されていますが、k-meansを使って生成するよりもサンプリングの方がずっと大きいです。 0.60
be set D can distribution the generated First, three least are SHAP. be set D can distribution the generate First, 3 least is SHAP。 0.77
There advantages. at The cannot be the k-means distribution set size of limited by the number of arbitrarily large because it is in clusters the training set. 利点がある。 トレーニングセットがクラスタにあるため、k-平均分布セットのサイズが任意に大きい数に制限されることは不可能である。 0.76
Second, centroids of the clusters obtained by the k-means algorithm the 第2に、k平均アルゴリズムによって得られたクラスターのセントロイド。 0.62
in Appendix B. as of 付録Bで。 ですから 0.57
5 5 0.85
英語(論文から抽出)日本語訳スコア
Data set COMPAS German CC データセット CompAS German CC 0.77
# inst. 6172 1000 1994 略称はinst。 6172 1000 1994 0.64
# features 7 25 100 # 特徴 7 25 100 0.83
# categorical 4 15 0 # カテゴリー 4 15 0 0.82
sensitive race gender racePctWhite 敏感な人種性 racePctWhite 0.72
unrelated 1 random1 pctOfIncome random1 Unrelated 1 random1 pctOfIncome random1 0.87
unrelated 2 random2 random2 無関係 2 ランダム2 ランダム2 0.60
/ Basic 1: included in / 基本1:含まれます。 0.73
sensitive and information Table features of the number not and loanRateAsPercentOfI ncome. 番号 not と loanrate aspercentofincome のセンシティブとインフォメーションテーブルの特徴。 0.72
variable target sets. 変数 ターゲット セット。 0.71
data used the the in features pctOfIncome full The sets. data は in 機能 pctOfIncome full セットを使用しました。 0.82
data all for binary is name バイナリ用のデータはすべて名前です 0.76
The is is EVALUATION あらすじ isは 評価 0.52
in the explanation methods, we first present 説明法で最初に提示するのは 0.68
robustness the 4.2, the by test we Section experiments. 4.2の堅牢性、テストによるセクション実験。 0.77
followed 4.1, and gIME against equipped the realistic, we adversarial models. 4.1に続き gIMEは現実的な 敵のモデルに対抗しました 0.64
To be more the It is それ以上のものになるには 0.63
the provide summary good a instances valid from be not and may set training of distribution. 要約 good a instance valid from be not and may set training of distribution。 0.65
also They do not of (e g , most instances density the capture well of the proposed the using Third, cluster). また、それらはそうではない(例えば、ほとんどのインスタンスは、提案されている第3のクラスタのキャプチャをよく密度化する)。
訳抜け防止モード: また、それらは(例えば、ほとんどのインスタンスは、提案された第3の使用方法のキャプチャー密度を高くしません。 cluster)。
0.63
grouped be could training generators, one set in generator, k-means easier to use compared to the have where users determine to clusters, while the data generators we tested can be used in the default mode without grouped be can training generators, one set in generator, k-means easier to use than the having to cluster, and the we tests data generators can be used in the default mode without 0.78
necessarily not do set training from the data SHAP becomes the number of parameters, 4 the used datasets To evaluate the proposed improvements of in gLIME, Section gSHAP, adversarial reasonable models with the same improved data generators we used in the explanation methods. データSHAPからのセットトレーニングは必ずしもパラメータの数になります。4つの使用データセット gLIME, Section gSHAP,adversarial reasonable modelで提案された改善を評価するために、説明方法で使用したのと同じ改善されたデータジェネレータを使用します。 0.68
to assume that attackers could also use better data generators when preparing their decision function, the evaluation metric for making their attacks much stronger. 攻撃者は、より強力な攻撃を行うための評価指標である決定関数を準備する際に、より良いデータジェネレータを使用できると仮定する。 0.70
As the success of deception, we use the explanation methods the deceived adversarial model the instances where of proportion they so in the prediction models. 偽装の成功として, 予測モデルにおいて, 偽装した敵モデルに対する説明手法を用いて, それらの比率の程度を推定する。 0.74
In Section 4.3, we test sensitive attributes as being important did not detect attacker might ones. 第4.3節では、攻撃者を検知しないことが重要であるとして、敏感な属性をテストします。 0.52
As enhanced produce generators if different explanations than the original the employ decide really certain predicted instance inside to only when it is that the is used deception the of thresholds different test explanation method, we the (1) from Equation function decision d (currently set to 0.5). 改良された生成生成生成装置は、元のものと異なる説明が持たれている場合に、しきい値の異なるテスト説明法を欺いた場合にのみ、真に特定の予測インスタンスを内部で決定し、(1)方程式関数決定d(現在0.5に設定)から(1)を得る。
訳抜け防止モード: as enhanced produce generators if different explanations than the original the employ decide really certain certain predict instance inside to only when これは、しきい値が異なるテスト説明法を欺くために使用されるものである。 方程式関数決定 d (現在 0.5 に設定) から (1 ) を導出する。
0.88
We report on this analysis in Section 4.4. この分析は4.4節で報告する。 0.76
4.1 SENSITIVE DECEPTION TO PRONE from sets domains data experiments our conducted (Slack Following we crime predicting credit, such problem, as where a a critical biased pose information on the data rate. 4.1 私たちの実施したドメインデータ実験(Slackに続いて、批判的な偏見がデータレートに関する情報をもたらすような、信用を予測します。 0.67
The basic is presented sets recidivism, crime and predicting the violent removing the missing from the data sets and after in Table 1. 基本は、データセットから欠落したデータをテーブル1に表示し、犯罪と暴力的な削除を予測する。
訳抜け防止モード: the basic is presented set recidivism, crime and predicting the violent removal the missing from the data sets テーブル1の後に
0.78
The collected vectors. 収集されたベクトル。 0.71
before we as one-hot-encoded features encoded risk a assessis for Alternative Sanctions) COMPAS (Correctional Offender Management Profiling recurrence defendant. 我々 は 1 つのホット エンコード機能エンコード リスク 代替制裁の評価) COMPAS (是正犯罪管理プロファイリング 再発の被告。 0.66
a of crime some US in courts the by used ment determine the risk to states in prison, demographic data (age, time al., 2016)) (Angwin et The dataset criminal history, includes assessment risk gender, contains race), 6,172 of data dataset The individual. a of crime some us in court the by used ment determine the risk to state in prison, demographic data (age, time al., 2016) (angwin et the dataset criminal history, includes assessment risk gender, containing race), 6,172 of dataset the individual. (英語) 0.85
the of and COMPAS (the one on which the from Broward Couty, Florida. フロリダのブロワード・コーティ(Broward Couty)出身。 0.32
The sensitive attribute in this dataset defendants associates with biased) race. このデータセットのデリケートな属性は、バイアス付き)レースに関連付けられます。 0.54
African Americans, whom biased model be adversarial model will is set’s set. 偏見のあるモデルが逆のモデルになるアフリカ系アメリカ人はセットのセットです。 0.79
instances recidivism, a high risk of This variable represent 51.4% of target two is the COMPAS score, which is divided into class is classes: low risk. インスタンスの再分割、この変数の高いリスクは、ターゲット2の51.4%がCompASスコアであり、クラスはクラスである:低いリスクである。 0.69
The majority the the high risk, which represents 81.4% of instances. 大多数がリスクが高く、81.4%がインスタンスである。 0.68
repository (Dua & Graff, the paper) from the UCI the rest of (German for The German Credit dataset etc.) UCIからのリポジトリ(Dua & Graff、論文)の残りの部分(ドイツ信用データセットなど)。 0.63
loan application information, loan history, includes financial 2019) (bank account information, applicants. ローン申請情報、融資履歴、ファイナンシャル2019を含む(銀行口座情報、申請者)。 0.62
sensitive 1,000 for etc.) などに対して敏感な1000 0.75
loan and age, marital status, demographic data (gender, A attribute in this data set represent is gender. ローンと年齢、夫婦のステータス、人口統計データ(性別、このデータセットの属性)は性別を表します。 0.72
Men, whom the biased model associates with a low-risk, classes: divided risk the is The two into a good assessment, loan variable instances. バイアスモデルがリスクの低いクラスと関連している男性: リスクを分割した2つを適切なアセスメント、ローン変数インスタンスに分類する。 0.81
69% of target instances. 対象インスタンスの69%。 0.68
represents 70% of customer, which The majority class and a bad customer. 70%の顧客であり、大多数のクラスと悪い顧客である。 0.84
is a good and Crime (CC) data Communities set (Redmond & Baveja, 2002) contains data about the rate of The community. is a good and Crime (CC) data Communities set (Redmond & Baveja, 2002)にはコミュニティのレートに関するデータが含まれている。 0.94
one represents instance in communities in US crime violent features Each 1994. property a population with community’s the percentage represent and numerical are certain of the community. 1つは1994年ごとに米国の犯罪暴力的特徴の地域社会の例であり、人口の比率と数値の人口は地域社会の特定である。 0.76
or the average of population in the Features include socio-economic (e g , education, house size, etc.) あるいは、その特徴における人口の平均は、社会経済(教育、家の大きさなど)を含む。 0.82
and demographic (race, age) data. そして人口統計(人種、年齢)データ。 0.73
The sensitive attribute is the percentage of the 敏感な属性は、その割合です。 0.66
DATASETS 2020), et al., classifier could statistics were categorical DataSETS 2020)、例えば、分類器は統計を分類できる。 0.74
three on granting a values 価値を与える3つのこと 0.66
that In 6 from the a high あれ 内 6 高いところから 0.67
data and データと 0.79
英語(論文から抽出)日本語訳スコア
race. white biased model The rate the target of is crime. レース ホワイトバイアスモデル ターゲットのレートは犯罪です。 0.51
violent of rate the data in equally represented and low. データを等しく表現し 低く評価する暴力的行為です 0.61
Both classes instances where whites’ violent set. 両方のクラス 白人の暴力的なセット。 0.67
links variable The are link 変数 はあ? 0.55
percentage crime is divided above into 犯罪率 分割され 上へ 0.68
average two to a classes: 平均2 クラスに移行します 0.68
low high and low‐high そして 0.75
on use added in the オン 利用 に追加しました。 0.65
gSHAP, used the gSHAP を使用。 0.71
explanation methods with training evaluation set adversarial models vectors. 逆モデルベクトルの訓練評価を用いた説明法。 0.78
(i.e. generators and gLIME, same 10%. (つまり。 発電機およびgLIME、同じ10%。 0.71
We ratio 90% : encoded categorical and explanation methods. 比率は90% : エンコードされた分類法と説明法である。 0.69
We EXPLANATION METHODS OF the of robustness split into the data for training of the one-hot-encoded 私たち 1ホットエンコードトレーニングのためのデータに分割された堅牢性の抽出方法 0.70
4.2 ROBUSTNESS evaluate To gIME), we training set features as We simulated the adversarial attack for every combination of generators used in explanation methods did rbfDataGen, which not for method (except IME, where we and cannot adversarial models in the neighborhood of a given instance). 4.2 ROBUSTNESS evaluate To gIME)では,説明方法で使用されるジェネレータのあらゆる組み合わせに対する逆アタックをシミュレートしたように,セット機能をトレーニングした。
訳抜け防止モード: 4.2 ROBUSTNESS Evaluation to gIME ) セットの特徴を訓練し 説明手法に用いる発電機の組み合わせ毎に, 逆攻撃をシミュレートした。 rbfDataGenは(IMEを除いて)メソッドではない。 私たちは、あるインスタンスの近傍で敵のモデルを作ることができません。
0.76
When testing SHAP, we used two varigenerate instances explained around new instances generating explanation: ants the for the TreeEnsemble generator of the whole and generating new instances training set distribution. shapのテストでは、説明を生成する新しいインスタンスについて説明した2つの変種インスタンスを使用していた。
訳抜け防止モード: shapをテストするとき、新しいインスタンスについて説明した2つの可変インスタンスを使いました。 生成説明: ants the for the treeensemble generator of the whole and generation new instance training set distribution。
0.67
In the LIME instance according to the whole of TreeEnsemble only inside the explanation. LIMEインスタンスでは、TreeEnsembleの全体に従って、説明の中でのみ実行される。 0.63
testing, we training set variant the used In used the that fills in IME testing, we only values (called TEnsvariant of Tree Ensemble the hidden variant set training the whole used we For variant). テスト、使用済みのInで使用されるセットの変種をトレーニングします IMEテストでは、値のみを使用します(TEnsvariant of Tree Ensemble the hidden variant set training the whole used we For variant)。 0.86
FillIn adversarial models, the training based choices These the TEnsFillIn used IME, where we of TreeEnsemble, for except variant. FillInの逆モデル、トレーニングベースの選択肢これらのTEnsFillInは、変種を除き、TreeEnsembleのIMEを使用していました。
訳抜け防止モード: トレーニングベースの選択肢です。 これら TEnsFillIn は variant を除いて、TreeEnsemble の IME を使用していました。
0.66
the reflect capabilities defense both of different attempt to make and attack realistic explanation method and (as possible). 反射能力は、現実的な説明法と(可能な限り)攻撃する異なる試みの両方を防御する。 0.80
More details training the decision model the adversarial model strong as inside d can be found in Appendix D. function depending only on the value a (see Section 2.2) was the biased model cases, In all simple b values unbiased model ψ unrelated of the on features. 決定モデルを訓練する詳細は、aの値のみに依存する付録D関数(第2節2を参照)で、dの内部に強い逆モデルが見つけることができる。
訳抜け防止モード: 決定モデルを訓練する詳細は、aの値にのみ依存する付録D関数(第2節2参照)で、dの内部に強い逆モデルを見つけることができる。 すべての単純なb値アンバイアスモデルでは、オン機能とは無関係。
0.75
depended feature. of the sensitive The only random1 unrelated Features are of Table side right-hand on and The sensitive features the shown 1. 特徴による。 センシティブな特徴 唯一のランダム1非関連な特徴はテーブルサイドの右上であり、センシティブな特徴は以下のとおりである。
訳抜け防止モード: 特徴による。 感度の唯一のランダム1無関係な特徴は、テーブルの右側です。 そして敏感な特徴は示しました1。
0.67
{0, 1} random2 were On COMPAS randomly and uniformly generated from the set. 0, 1} random2 はセットからランダムに、均一に生成された。 0.72
and CC, we result of ψ depends only on the value (the single unrelated feature simulated two attacks, one with a features. そして CC の結果は値にのみ依存する(1つの無関係な特徴は2つの攻撃をシミュレートし、1つは特徴を持つ)。 0.72
of two one with 1), and the unrelated feature another unrelated For every instance in the evaluation set, we recorded the most important feature according to the used the feature with the largest absolute value of explanation method (i.e. 1と1の2つのうち、評価セットの各インスタンスに関係のないもう1つの無関係な特徴について、最も重要な特徴を説明法(すなわち、説明法)の絶対値が最も大きい使用例に従って記録した。 0.70
the contribution as determined a heatmap in Figure 2. 図2のヒートマップで決定された貢献 0.76
The green color means shown as are results explanation method). 緑は、結果説明方法として示される)。 0.73
The by the explanation method was feature was the (i.e. 説明方法による特徴は(すなわち)であった。 0.79
cases 30% of the that than in deceived less sensitive on as the recognized important the one in more than 70 % of heatmap cases as the scale the most and cases suggests), that it was deceived in more than 70% of feature sensitive (the the red means scale on the heatmap as cases the than 30 % of in less important one the most recognized as was the suggests). ケース30%は、ヒートマップのケースの70%以上で認識されている重要度が低く、ケースが示唆しているように、そのケース30%は、それが特徴の敏感さの70%以上で欺かれた(ケースとしてレッド平均は、重要度が低いケースの30%以上が示唆されている)。
訳抜け防止モード: 70%以上のヒートマップ症例において最も重要と認識されているものとしては, 騙されるよりも感度が低い症例が30%である。 そして、ケースが示唆する)は、70%以上の特徴に敏感な部分で騙された(赤はヒートマップのスケールを意味し、最も認識されたほど重要でない部分の30パーセント以下である)。
0.77
We the most as feature was deception consider successful if the sensitive not recognized important (the sensitive features are the only relevant features biased by the explanation method in models b). 重要でないと認識されない場合(モデルbにおける説明法に偏りがあるのは、感度のある特徴のみである)には、機能的誤認が最も重要である。 0.72
than LIME and TreeEnsemble addition the robust with is more gLIME method The of rbfDataGen for MCD-VAE were parameters suggests of MCD-VAE. rbfdatagen for mcd-vae のパラメータは、lime と treeensemble の追加よりも、よりglime な方法によるロバストである。
訳抜け防止モード: than LIME and TreeEnsemble add the robust with is more gLIME method MCD の rbfDataGen -VAEはMDD-VAEのパラメータである。
0.78
This the and addition less robust with that TreeEnsemble and Both this and not well-chosen, pattern for repeats other explanation methods. これはTreeEnsembleとこれの両方で堅牢ではなく、よくないパターンであり、他の説明方法を繰り返すためのパターンである。 0.67
datasets, not on but and German rbfDataGen make gLIME considerably more robust on COMPAS interdependent, strongly in CC are the CC dataset. データセットはオンではなく、ドイツのrbfdatagenにより、ccでは強く、compas相互依存ではglimeの方がかなり堅牢である。
訳抜け防止モード: データベースは on ではなく rbfDataGen です。 gLIME は COMPAS 相互依存でかなり堅牢です。 CCで強くCCデータセットです。
0.65
We believe the reason for that is that features of share the have e g , we value, fraction as attribute same the represent and many the white of a dictates interdependence This and population, of share the population, the Asian so on. その理由は、共有の特徴がeg, we value, fraction as attribute as same the represent and many the many of thedictates interdependence This and population, of share the population, the Asianなどであると我々は信じている。 0.76
all that unlikely fractions have to add up to 1. あり得ない割合は 1 に増やさなければならない。 0.62
The data generators are to capture such strong conditional dependencies, but the adversarial model’s decision function is likely to approximate it. データジェネレータはそのような強い条件依存をキャプチャするが、敵モデルの決定関数はそれを近似する可能性が高い。 0.73
robust shows it robust when using the TreeEnsemble generator, but The gSHAP method is most less for value that in could the the The gLIME method. 堅牢性はTreeEnsembleジェネレータを使用するときに堅牢であることを示しているが、gSHAPメソッドは、The gLIMEメソッドの可能性がある値に対して最も少ない値である。
訳抜け防止モード: TreeEnsemble ジェネレータを使用すると、ロバストに表示されます。 しかし、gSHAPメソッドは、the gLIMEメソッドにできる値のために最も少ないです。
0.68
replacement behavior feature be than reason gSHAP methods, which only some the by SHAP feature’s strategy and of the values change used lead set. 置換動作機能は、gSHAPメソッドよりも優れています。これは、SHAP機能の戦略と使用済みリードセットの値の変更によるものです。
訳抜け防止モード: 置換動作機能は、gSHAPメソッドよりも優れています。 SHAP機能の戦略と使用済みリードセットの値の一部だけを変更します。
0.74
of the with the distribution This out-of-distribution to instances if the instances help can gLIME, we With instance. インスタンスが gLIME を可能とした場合、インスタンスへのこの分散のアウト・オブ・ディストリビューションは、インスタンスです。
訳抜け防止モード: the distribution with the distribution This out - of - distribution to instance if インスタンスはgLIMEに役立ちます 例を挙げる。
0.80
explained the to enough close are set distribution in generate not the set. 説明 the to enough close is set distribution in generate the set not the set. 0.89
training of distribution in likely are more that instances complete the to be the even with quite IME is IME is sampling, robust the perturbation as we expected. 分布のトレーニングは、インスタンスがかなりIMEであっても完了する可能性が高く、IMEはサンプリングされており、予想通り摂動を堅牢にします。 0.66
This suggests three tested explanation methods and shall be considered the chosen method in the most robust of all これは3つのテストされた説明方法を示し、すべての最も堅牢な選択された方法とみなされます。
訳抜け防止モード: これは3つの検証された説明方法を示し、考慮しなければならない。 選択方法 最も頑丈で
0.69
that 7 あれ 7 0.76
英語(論文から抽出)日本語訳スコア
Figure 2: The robustness results for gLIME (top), gSHAP (middle), and gIME (bottom). 図2: gLIME (top)、gSHAP (middle)、およびgIME (bottom)の堅牢性の結果。 0.77
The graphs recognized the instances, where set evaluation proportion show the of as feature was sensitive the explanafor used represent Rows explanation method. それらのグラフは,特徴が敏感であることを示す集合評価比が,Rowsの説明法を表す例を示した。 0.75
important most generators by the used the the name of tions. ほとんどの発電機は tions という名前を使っていた。 0.66
The column labels consist of the data set on which the experiment was performed Compas2 and CC2 the and name of the generator used training of the adversarial model. カラムラベルは、実験が行われたデータセットからなる。Compas2とCC2は、ジェネレータの名前と、敵モデルのトレーニングを使用した。 0.65
defor original note an attack with two independent features. オリジナル注記 2つの独立した特徴を持つ攻撃 0.80
Perturbation represents the used in sampling are the TEnsFillIn IME, LIME, new instances variant where TreeEnsemble represents and SHAP, from the whole generation the and TreeEns generated around the given represents distribution. サンプリングに使用される摂動は、TEnsFillIn IME、LIME、TreeEnsembleが示す新しいインスタンスバリアント、SHAP、世代全体から生成されたTreeEns、与えられた分布を表すTreeEnsである。 0.67
one, comparable 1つ comparable 0.72
sensitive are set, which robustness. 敏感なセットは、強いです。 0.59
generator the TreeEnsemble using gIME results when The situations. TreeEnsemble を gIME 結果を使用して生成します。 0.77
suggests This results. この結果を示唆する。 0.71
original the to IME variant that sampling instance, explained the represents the neighborhood of does not サンプルインスタンスを記述したto IME バリアントのオリジナルで、 not の近傍を表す 0.69
(TEnsFillIn from a decrease (TEnsFillInは減少から 0.78
variant) smaller data the method’s 変種) 方法のより小さなデータ 0.67
EXPLANATIONS 4.3 COMPARING AND MODIFIED METHODS ORIGINAL OF environment. 解説 4.3 環境オリジナルの手法の比較・修正。 0.50
We a affect explanations in non-adversary We checked if improved data generators classification models four different and modified methods explanations of original compared the for the on difference absolute use datasets. 改良されたデータジェネレータ分類モデルが4つの異なる方法と修正された方法の説明が、オン差絶対使用データセットについて比較したかどうかを調べた。 0.71
As the mean differences, we of of different three a measure explanations the whole evaluation set. 平均的な違いとして、評価セット全体を説明する3つの異なる尺度がある。 0.71
Details exbetween the original enhanced and of these periments are reported in Appendix F, below we shortly summarize the results, contained in Table 4. 元の強化されたものとこれらの近日点との間の詳細は、付録fで報告され、下記の表4に含まれる結果を簡単に要約する。
訳抜け防止モード: オリジナルの拡張とこれらのペリメントの詳細は、Appendix Fで報告されている。 以下は、Table 4に含まれる結果の概要である。
0.67
over 8 Over 8 0.75
英語(論文から抽出)日本語訳スコア
gLIME explanations original LIME and between differences The LIME since surprising 4). gLIME はオリジナルの LIME と、驚きの 4 以降の LIME の違いを説明します。 0.67
Table of local fits This is not of perturbations small for even strongly can which differ (the are small average MAD is IME explanations SHAP and that explanations of gSHAP and gIME are not significantly non-adversary environment. 局所適合の表これは強く異なる(小さい平均MADはIME説明SHAPであり、gSHAPとgimEの説明は著しく非敵対的な環境ではない)強い缶のための小さな摂動ではありません。 0.70
are linear models the model’s almost different 線形モデルです モデルはほぼ異なります 0.67
part (see considerable top the explanations, in local its differences The input. 部分(かなりトップの説明を参照してください、ローカルのその違いで入力。 0.70
in negligible). negligible (複数形 negligibles) 0.56
We can conclude from SHAP and IME in the SHAP と IME から締めくくることができる。 0.52
BEHAVIOR 4.4 ADVERSARIAL OF THRESHOLDS PREDICTION DIFFERENT CLASSIFIER WITH of be wary attacker might being The deception to and regulator the discovered decide employ by inside is that only when is it really certain the instance explanation method. behavior 4.4 adversarial of thresholds prediction different classificationifier with of be wary attack are theception to and regulator the found decision by inside is only if it is really certain the instance description method. (英語) 0.65
We used predicted the function changing conservatism by different levels of attacker’s express the decision threshold d it is currently set from Equation (1), where to 0.5. 提案手法は,(1)から0.5までの式で設定した決定しきい値dを,攻撃者の異なるレベルによる保守主義の関数変化を予測した。 0.80
We tested the robustness of modified explanation thresholds the COMPAS dataset with on methods adversarial models that use different certainty for results and a more For levels of aggressiveness). COMPASデータセットの修正された説明しきい値の堅牢性をテストし、結果に異なる確実性を使用する方法と、攻撃性のレベルについて)。 0.64
deploying the biased classifier (simulating different results. バイアス付き分類器のデプロイ(異なる結果のシミュレーション)。 0.58
summarize shortly see Appendix G. Below, we experiment, description detailed the of the thresholds, of robust Even with different gIME is still the three explanation methods, and the most feature is generator. 下記のAppendix Gを参照してください。 実験では、ロバストなしきい値の詳細を説明します。 gIMEが異なる場合でさえ、まだ3つの説明方法であり、最も大きな特徴はジェネレータです。
訳抜け防止モード: 下記のAppendix Gを参照して、実験を行い、しきい値の詳細を説明します。 頑丈さ gIME が違うとしても まだ3つの説明方法です 一番の特長はジェネレータです
0.69
treeEnsemble still best gives the results as the data The sensitive recognized the this as expected lower, which is the as in is case threshold often when important more the most instances behaves more adversarial model aggressively. treeEnsembleは、データとして結果を最もよく与えます センシティブなケースは、多くの場合、最も重要なインスタンスがより敵のモデルを積極的に振る舞うケースしきい値のように、これをより低い値として認識します。 0.59
While on which the percentage of the the racist adversarial model is recognized drops with higher values of the thresholds, it behavior of the remains enough to warn the regulator the problematic behavior of the prediction model high about (especially We data as treeEnsemble using of the concan generator). 人種差別的敵対モデルのパーセンテージが閾値の高い値で低下すると認識される一方で、その残余の挙動は、予測モデルの問題行動が高まることを規制当局に警告するのに十分である(特に、concanジェネレータを用いたtreeensembleとしてのデータ)。 0.76
gIME and gSHAP case in clude that the enhanced explanation methods remain robust conservative enough, even with more adversarial models. gIME と gSHAP のケースでは、強化された説明法は、より敵対的なモデルであっても十分に頑健な保守性を維持している。
訳抜け防止モード: gIME と gSHAP の場合 強化された説明法は より敵対的なモデルでも 十分に保守的だ
0.76
CONCLUSIONS 5 exploit defense against the presented We attacks explanation methods. 結論5 提示されたwe攻撃説明方法に対する防御を悪用する。 0.63
on adversarial attacks The used perturbation shortcomings the of explanation methods. on adversarial attack 使用された摂動の欠点は、説明方法です。 0.67
post-hoc sampling in sampling This set. ポストホックサンプリング このセットをサンプリングする。 0.62
of distribution original from the different produces these methods in too instances the training are meant instances prediction models biased owners unethical This for of allows to detect which and data explanation label unbiased way. このトレーニングは、インスタンス予測モデルが偏りのあるオーナを非倫理的にすることを意味します。これにより、どのデータ説明ラベルが偏りのない方法で検出できます。
訳抜け防止モード: 異なるインスタンスから派生した分布がこれらのメソッドを生成する場合、トレーニングは、非倫理的な所有者に偏ったインスタンス予測モデルを意味する。 偏見のないラベルを 検出するためです
0.65
We replaced the perturbation them in an sampling with of detection generators that better capture the distribution given data set. サンプル中の摂動を、与えられたデータセットの分布をよりよく把握する検出ジェネレータに置き換えた。 0.72
This of a prevents the instances used in explanation and disarms have shown that gLIME and attackers. これは説明や武装解除に使われた事例がグライムやアタッカーを防いでいることを示している。 0.63
We the modified are more generators, gSHAP original than robust data better use explanation methods, which the original values explanation in The robust. 修正されたデータは、ロバストデータよりもgshapオリジナルであるジェネレータが多く、ロバストデータで元の値が説明できるより優れた説明方法を使用する。
訳抜け防止モード: 修正されたデータは、より堅牢なデータよりもgSHAP独自のジェネレータである。 この値は The robust で説明されている。
0.62
already IME is quite variants, while difference between considerable. すでにIMEはかなり変種ですが、かなりの違いがあります。 0.71
Our preliminary and enhanced gSHAP and gIME is negligible, while for gLIME, it is in Appendix results C show that using the TreeEnsemble generator, the gIME method converges from 30-50% fewer faster samples. 私たちの予備および強化されたgSHAPおよびgIMEは無視可能ですが、gLIMEの場合、TreeEnsembleジェネレータを使用して、gIMEメソッドが30〜50%より速いサンプルから収束することを示しています。 0.65
and requires the proposed defense depends on the choice of The effectiveness of the TreeEnsemble generator turned out eters. そして、提案された防衛は、TreeEnsembleジェネレーターの有効性がエスターになった選択に依存します。 0.65
While to tested get a several variants might need be aware of shall be the need for good data generators requirement. テストされるには、いくつかのバリエーションが必要ですが、優れたデータジェネレータの要件が必要であることに注意してください。 0.59
Luckily, even a legal diction models a unethical models. 幸いなことに、法的辞書でさえ非倫理的なモデルをモデル化します。 0.47
raise the alarm about research. 研究に関する警報を起こせ 0.64
The proposed defense and attacks shall for further This work opens a range of possibilities and and on data, sets with a be number different data tested on other shall be and graphs. 提案された防衛及び攻撃は,さらに,この作業は,さまざまな可能性及びデータに対して,他でテストされた多数の異なるデータとグラフのセットを開放する。 0.83
The work on useful generators images, text, such as types of problems different ability to generate new and the extended to find time-efficient generators with easy to set parameters (Goodfellow et al., 2014) networks in adversarial a given vicinity of instances one. 有用なジェネレータ画像、テキスト、例えば、新しいものを生成するさまざまな種類の問題や、パラメータを簡単に設定できる時間効率の良いジェネレータ(Goodfellow et al., 2014)ネットワークをインスタンス1の特定の近傍の敵対的に見つけるための拡張などの作業。 0.64
Generative the shall currently written in pure R, research. 生成は、現在、純粋なR、研究で書かれる。 0.76
The TreeEnsemble generator, a promising line of may be studied shall The MCD-VAE generator language. TreeEnsemble ジェネレータは、有望な行が研究される可能性がある MCD-VAE ジェネレーター言語です。 0.68
programming efficient a more rewritten be be in reasonable to dataset. より書き直されたプログラミングは、データセットに合理的です。 0.69
given sampling, we SHAP for parameters a of selection allow automatic and to keep, the others would be the could first fix the values of the features we want values generated using the TreeEnsemble generator. サンプリングをすると、選択のパラメータ a に対して SHAP が自動的に許可し、他のパラメータは、最初に TreeEnsemble ジェネレーターを使用して生成された値の値を修正できます。 0.72
the data generator and its paramin practice, authorities sensitive preenough to データ・ジェネレータとそのパラミン・プラクティスは 当局に敏感に 0.60
features, with missing evaluation, in our the most explanation method. 欠落した特徴は 評価は、私達の最も説明方法で。 0.66
Inspecting robust and make to training data of few non-deceived instances would be 堅牢な検査と、非受信インスタンスのトレーニングデータの作成は、そうである。 0.60
effective access In of to 有効アクセス 内 へ 0.58
types of 9 種類 ですから 9 0.72
英語(論文から抽出)日本語訳スコア
ACKNOWLEDGMENTS proby the supported partially The work was is supported paper gramme This innoagreement No 825153, project EMBEDDIA (Cross-Lingual Embedvation programme under grant dings acknowledgments proby the supported the work was supported paper gramme this innoagreement no 825153, project embeddeddia (cross-lingual embeddedvation program under grant dings. (英語) 0.82
P6-0411. for Less-Represented Languages P6-0411。 少ない表現言語のために 0.55
Slovenian Research Agency by European Union’s Horizon 欧州連合の水平線によるスロベニア研究機関 0.75
in European News Media). ヨーロッパのニュースメディアで)。 0.78
(ARRS) 2020 (ARRS)2020年 0.90
core research research and 10 コア研究 研究と 10 0.79
英語(論文から抽出)日本語訳スコア
On the autoencoders. オン はあ? オートエンコーダー。 0.53
arXiv preprint arXiv プレプリント 0.83
[Accessed: as 【アクセス】 として 0.51
arXiv 23, conceal arXiv 23, 隠す 0.76
unfairness from multiple ProPublica, May 不公平 複数から ProPublica, May 0.71
robustness of interpretability methods. 頑丈さ ですから 解釈方法。 0.54
arXiv:2007.02893, 2020. arXiv:2007.02893, 2020 0.70
Jeff Larson, Surya Mattu, Jeff Larson、Surya Mattu。 0.76
and Lauren Kirchner. そしてローレン・カーチナー。 0.57
Machine bias. 2016. 機械 偏見 2016. 0.67
Ackermann, geometry is to 2019. Ackermann, 幾何学は2019年です。 0.75
and Adrian Weller. そしてエイドリアン・ウェラー。 0.59
You shouldn’t In explanation methods. 入れるべきではない 説明方法。 0.62
trust me: Learning SafeAI@ AAAI, pp. Trust me: Learning SafeAI@ AAAI, pp。 0.82
ArXiv, Christopher can Systems, pp. ArXiv, Christopher can Systems, pp。 0.82
learning repository. Representing Model In Proceedings of The 33rd International Conference on Machine 学習リポジトリ。 第33回機械国際会議の議事録におけるモデル表現 0.76
a Bayesian Approximation: abs/1606.05908, Anders, Marcel be manipulated and 13589–13600, http://archive.ics.u ci. ベイズ近似: abs/1606.05908, Anders, Marcel be manipulateed and 13589–13600, http://archive.ics.u ci 0.57
REFERENCES and Tommi David Alvarez-Melis S Jaakkola. REFERENCESとTommi David Alvarez-Melis S Jaakkola。 0.86
preprint arXiv:1806.08049, 2018. arXiv:1806.08049, 2018 0.67
Julia Angwin, 2016. ジュリア・アングウィン、2016年。 0.56
Joymallya Chakraborty, Kewen Peng, and Tim Menzies. Joymallya Chakraborty、Kewen Peng、Tim Menzies。 0.60
Making fair ML software using trustworthy explanation. 信頼できる説明を使って公正なMLソフトウェアを作る。 0.57
Botty Dimanov, Umang Bhatt, Mateja Jamnik, which models 2020. Botty Dimanov, Umang Bhatt, Mateja Jamnik - 2020年モデル。 0.79
63–73, Tutorial on variational Carl Doersch. 63-73, Tutorial on variational Carl Doersch 0.84
Maximillian Dombrowski, Alber, Ann-Kathrin Robert M¨uller, and Pan Explanations Kessel. Maximillian Dombrowski、Alber、Ann-Kathrin Robert M オーラー、Pan Explanations Kessel。 0.85
in Neural Information Processing In Advances and Casey Graff. 進化とケーシーグラフにおけるニューラル情報処理 0.51
UCI machine Dheeru Dua 2020]. UCIマシンDheeru Dua 2020]。 0.69
edu/ml, 8. edu/ml, 8。 0.79
9. 2019. Zoubin Ghahramani. 9. 2019. Zoubin Ghahramani 0.75
and Yarin Gal Dropout Uncertainty in Deep Learning. そしてYarin Galの深層学習における不確実性。 0.61
Learning, pp. 1050–1059, 2016. volume 48, Amirata Ghorbani, James Abubakar Abid, Zou. 学習、pp。 1050–1059, 2016 Volume 48, Amirata Ghorbani, James Abubakar Abid, Zou。 0.77
Proceedings of the AAAI Conference on Artificial Pouget-Abadie, Mehdi Mirza, Ian Goodfellow, Jean Aaron Courville, and Yoshua Bengio. AAAI Conference on Artificial Pouget-Abadie、Mehdi Mirza、Ian Goodfellow、Jean Aaron Courville、Yosehua Bengioの進行。 0.68
Generative mation processing systems, 2014. 2014年(平成14年)、生産システム。 0.50
Juyeon Heo, Sunghwan Joo, Fooling neural network interpretations via adversarInformation Processing ial model manipulation. Juyeon Heo, Sunghwan Joo, Fooling neural Network interpretations via adversarInformation Processing ial model operations (英語) 0.83
2925–2936, 2019. 2925–2936, 2019. 0.84
Joshua A Kroll, son, 633–705, 2017. ジョシュア・ア・クロル(Joshua A Kroll, son, 633–705, 2017)。 0.46
Zachary Chase Lipton. ザカリー・チェイス・リプトン 0.38
In Advances Scott M Lundberg and Su-In Lee. In Advances Scott M LundbergとSu-In Lee。 0.90
A unified approach to interpreting model predictions. モデル予測を統一的に解釈するアプローチ。 0.82
in Neural Information Processing Systems 30, pp. 神経情報処理システム30, pp。 0.60
Inc., 4765–4774. 4765-4774号。 0.56
Curran Associates, 2017. and Marko Robnik-ˇSikonja. カラン・アソシエーツ、2017年、マルコ・ロブニク=シコンニャ。 0.32
Kristian Miok, Deng Nguyen-Doan, Daniela Zaharie, Generating using Monte Carlo dropout. Kristian Miok, Deng Nguyen-Doan, Daniela Zaharie, Generating using Monte Carlo dropout。 0.92
Communication and Processing (ICCP), pp. 通信処理(ICCP)、pp。 0.60
2019. 509–515, C. J. Moody J. Darken. 2019. 509-515, C. J. Moody J. Darken 0.79
and in networks of locally-tuned Computation, 1:281–294, F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and Journal of Machine Learning Research, E. Duchesnay. そして、局所的に調整された計算のネットワークでは、1:281–294, F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and Journal of Machine Learning Research, E. Duchesnay。 0.79
12:2825–2830, Redmond Michael mation sharing 660–678, 2002. 12:2825–2830, Redmond Michael mation shared 660–678, 2002。 0.73
Interpretation neural networks Intelligence, 33:3681–3688, 2019. 解釈ニューラルネットワークインテリジェンス, 33:3681–3688, 2019。 0.71
Bing Xu, David Warde-Farley, In Advances in adversarial Bing Xu, David Warde-Farley, In Advances in adversarial 1.00
data In 2019 IEEE 15th International Conference on Intelligent Computer 2019年ieee第15回インテリジェントコンピュータ国際会議のデータ 0.86
Scikit-learn: Machine 2011. and Alok among Scikit-learn: Machine 2011.とAlok 0.91
Joanna Huey, Solon Barocas, Edward W Felten, University of Joanna Huey, Solon Barocas, Edward W Felten, University of University 0.90
Accountable algorithms. 説明責任 アルゴリズム。 0.49
pp. 2672–2680, and Taesup Moon. pp. 2672–2680、テズアップムーン。 0.75
In Advances in Neural Joel R Reidenberg, David G RobinPennsylvania 165(3): 神経の進歩において Joel R Reidenberg, David G RobinPennsylvania 165(3) 0.64
Law Review, for enabling Operational of 法律レビュー。 運用を可能にするため 0.59
cooperative Research, infor141: 共同研究。 Infor141: 0.71
The mythos of model interpretability. 神話 モデルの 解釈性 0.62
Sherjil Ozair, neural infor- Sherjil Ozair, Neural Infor- 0.89
abs/1606.03490, 2016. abs/1606.03490, 2016 0.67
learning in Python. Pythonで学ぶ。 0.77
A data-driven software データ駆動型 ソフトウェア 0.73
processing units. and Harlan Yu. 処理 ユニット。 そしてハーラン・ユ。 0.71
police departments. European 警察 部署だ ヨーロッパ 0.65
Fast 1989. learning 1989年発売。 学習 0.67
tool Journal and ツールジャーナル そして 0.72
of is fragile. ですから は 壊れやすい 0.59
nets. CoRR, Baveja. ネットだ CoRR バベヤ。 0.51
11 Systems, pp. 11 システム。 pp. 0.77
Klausblame. Klausblame 0.45
Neural 神経 0.57
英語(論文から抽出)日本語訳スコア
IEEE Trans- IEEE Trans- 0.88
individual instances. ”Why should I 個人 例 なぜ私が? 0.53
trust you?”: Explaining the the 22nd ACM SIGKDD International Conference 1135–1144, 第22回ACM SIGKDD International Conference 1135–1144の説明。 0.58
2016. J. of 2016. J。 ですから 0.72
semiArtificial: SemiArtificial: 0.83
Robnik-ˇSikonja. ロブニク・シコンジャ。 0.35
Rousseeuw. Journal Rousseeuw 日誌 0.59
Silhouettes: A of Computational Silhouettes: A of Computational 0.85
In Proceedings of and Data Mining, pp. Proceedings of and Data Mining, pp。 0.68
for and Learning on Neural Networks Robnik-ˇSikonja Igor and Kononenko. ロブニク・シコンジャ・イゴールとコノネンコのニューラルネットワークによる学習 0.44
Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. Marco Tulio Ribeiro、Sameer Singh、Carlos Guestrin。 0.64
any classifier. predictions of on Knowledge Discovery Marko Robnik-ˇSikonja. どんな分類器でも 知識発見におけるマルコ・ロブニク・シコンジャの予測 0.53
Data generators learning systems based on RBF networks. RBFネットワークに基づくデータジェネレータ学習システム。 0.74
Systems, 27(5):926–938, 2016. actions Marko Explaining classifications for IEEE Transactions on Knowledge and Data Engineering, 20:589–600, 2008. Systems, 27(5):926–938, 2016 アクション Marko Explaining classifications for IEEE Transactions on Knowledge and Data Engineering, 20:589–600, 2008 0.91
Semi-Artificial Data, Marko //cran.r-project.org /package=semiArtificial. Semi-Artificial Data, Marko //cran.r-project.org /package=semiArtificial。 0.38
Peter analysis. Sean Saito, Eugene Chua, Nicholas Capel, locality sampling, Andrew D Selbst Review, 87:1085, The Shapley. ピーター分析。 Sean Saito, Eugene Chua, Nicholas Capel, Locality Sample, Andrew D Selbst Review, 87:1085, The Shapley。 0.81
Lloyd for S. n-person of Lloyd S. Shapley, in Honor 31–40. Lloyd S. ShapleyのS. n-person、Honor 31-40。 0.84
Cambridge University Press, 1988. pp. ケンブリッジ大学出版局、1988年。 0.66
Sophie Hilgard, Emily Dylan Jia, Slack, Sameer SHAP: Adversarial post-hoc on and attacks (AIES), and AI, Ethics, Society 2020. Sophie Hilgard, Emily Dylan Jia, Slack, Sameer SHAP: Adversarial Post-hoc on and attack (AIES), and AI, Ethics, Society 2020。 0.86
ˇStrumbelj Erik and Igor Kononenko. シュトラベルジュ・エリクとイゴール・コノネンコ。 0.40
explanation of individual of Machine Learning Research, 11:1–18, Journal 2010. game theory. 機械学習研究の個人の説明, 11:1–18, Journal 2010. ゲーム理論。 0.79
ˇStrumbelj Erik and prediction models and feature strumbelj erikと予測モデルと特徴 0.68
2020. and Solon Barocas. 2020年とソロン・バロカス 0.58
2018. A value individual Systems, 41:647–665, 2013. 2018. 値 個人システム 41:647-665, 2013 0.71
Singh, explanation methods. Singh、説明方法。 0.69
Explaining Information and Himabindu Lakkaraju. 解説情報 そしてHimabindu Lakkaraju。 0.68
explainable machines. Igor Kononenko. 説明可能な機械 イゴール・コノネンコ。 0.56
In Alvin E. Roth In Alvin E. Roth 0.98
Knowledge and contributions. intuitive 知識と 貢献 直感的 0.57
efficient games. appeal 効率的 ゲーム。 上訴 0.64
(ed. ), The (エド) ), あらすじ 0.47
the An of はあ? 安 ですから 0.47
Generator URL https: 2.3.1. 発電機 URL https: 2.3.1。 0.67
R package version interpretation graphical and validation of and Applied Mathematics, 20:53 – 65, 1987. robustness with lime Improving R package version interpretation graphical and validation of and Applied Mathematics, 20:53– 65, 1987. robustness with Lime Improving 0.96
and Rocco Hu. とRocco Hu。 0.54
smarter cluster より賢く cluster 0.74
2019. aid to 2019. 援助 へ 0.74
classifications using predictions with 分類 利用 predicts with ~ 0.75
Fooling LIME In AAAI/ACM Conference on Fooling LIME in AAAI/ACM Conference 0.96
Fordham Law Shapley Value: フォードハム法 Shapley 値。 0.62
Essays EXPLANATION METHODS found the f エッセイ 解説方法 fを見つけた 0.63
POST-HOC ON the completeness, we present can in be references. POST-HOC 完全性について、私たちは参照することができます。 0.53
the denote with predictive model, with x the features describing x. は予測モデルで示され、xはxを表す特徴を持つ。 0.73
DETAILS A the For sake of et al , 2016), SHAP (Lundberg & Lee, 2017), plete description methods, we the number of A.1 LIME instances with the LIME method Explanations of both be to model that accurate locally has g interpretable). DETAILS A The For sake of et al , 2016), SHAP (Lundberg & Lee, 2017), plete description method, we the number of A.1 LIME instance with the LIME method 両方の説明は、局所的に正確な g が解釈可能であることをモデル化する。 0.91
is (so that simple it of The for explanation the instance x following equation: defined with the は (for の説明の単純さのため) の例 x の次の式です。
訳抜け防止モード: ですから) Simple it of The for explanation the instance x following equation : defined with the form
0.76
above-stated is it (so 上述 そうですか (そう) 0.67
explanation methods LIME (Ribeiro further details on and IME (ˇStrumbelj & Kononenko, 2013). 説明方法LIME(Ribeiroの詳細とIME(シュトラベルジュ&コノネンコ、2013)。 0.55
Their comIn our explanation instance we and with n 説明の例では 私たちとnは 0.68
the explaining, exposition are その説明は 展覧会は 0.62
of obtained with can ですから can (複数形 cans) 0.45
obtain an correct interpretable model feature 取得 正解 解釈可能なモデル機能 0.61
g. contributions) The and the 貢献など) と。 はあ? 0.50
predictive model (L(f, g, πx) + Ω(g)), interpretable model, πx(z) denotes the measure of complexity for where Ω(g) denotes the proximity z, L(f, g, πx) instances generated local and measure between of fidelity of denotes the measure x interpretable models. 予測モデル (L(f, g, πx) + Ω(g)) は可換モデルであり、πx(z) は Ω(g) が局所的に生成される近接 z, L(f, g, πx) のインスタンスを表すときの複雑性の測度を表し、この測度 x の可換モデルを表す忠実度の間の測度である。 0.79
We of the and G denotes f, the to interpretable model set prediction model g x(cid:48) With linear models. 我々 と G は f、線形モデルと解釈可能なモデルセット予測モデル g x(cid:48) を表します。 0.86
of set the LIME method, where G represents the of version linear the use i.e. は LIME メソッドをセットし、G は使用例の線形バージョンを表します。 0.65
normalized we presentation instance x, the numerical attributes their mean denote the have attributes set to 0 and variance to 1, and the contain value 1 if they have the same value 正規化 we 表現インスタンス x は、その平均値が 0 に設定され 1 に分散した属性を示す数値属性であり、同じ値を持つ場合 1 を含む値である。 0.76
ξ(x) = arg min g∈G シュ(x) = arg min g∂G 0.59
LIME method, obtained with LIMEメソッド。 得られた 0.64
categorical categorical~ 0.72
the (2) f, はあ? (2) f" 0.60
of is 12 ですから は 12 0.71
英語(論文から抽出)日本語訳スコア
as the instances where Equation Equation のインスタンスとして。 0.68
The proximity function πx exoplained instance and 0 otherwise. 近接関数 πx は外接し、それ以外は 0 である。 0.59
is defined on the normalized d(x(cid:48) ,z(cid:48)) πx(cid:48)(z(cid:48)) use we (hence the notation , exponential the and uses πx(cid:48)), kernel: σ2 fidelity measure L from x(cid:48) z(cid:48). 正規化 d(x(cid:48) ,z(cid:48)) πx(cid:48)(z(cid:48)) use we (hence the notation , exponential the and use πx(cid:48)), kernel: σ2 fidelity measure l from x(cid:48) z(cid:48)。 0.93
d(x(cid:48), z(cid:48)) between and The distance measure denotes a local (cid:88) (2) is defined as: L(f, g, πx(cid:48)) = πx(cid:48)(z(cid:48)) (f (z) − g(z(cid:48)))2, z(cid:48)∈Z In LIME, each generated sample is obtained by adding Gaussian samples. l(f, g, πx(cid:48)) = πx(cid:48)(z(cid:48)) (f(z) − g(z(cid:48)))2, z(cid:48)∈Z LIMEにおいて、生成された各試料はガウス標本を加えることによって得られる。
訳抜け防止モード: d(x(cid:48 ), z(cid:48 ) ) との距離測度は局所(cid:88 ) ( 2 ) を L(f,) と定義する。 g, πx(cid:48 ) ) = πx(cid:48)(z(cid:48)) (f(z ) − g(cid:48))2, z(cid:48)・Z LIMEでは、それぞれのサンプルはガウスサンプルを添加して得られる。
0.90
independently. set of close 独立して close (複数形 closes) 0.57
interpretable models, LIME is to complex boundaries. 解釈可能なモデル、LIMEは複雑な境界です。 0.67
the set of feature of x(cid:48) as the for instances for インスタンスとしての x(cid:48) の特徴のセット 0.84
relatively fast but may produce poor 比較的速いが、貧弱になる可能性がある 0.50
where Z denotes noise to each Using linear models explanations 線形モデルの説明を用いて z がそれぞれノイズを表す場合 0.70
decision (3) = e 決定 (3) = E 0.79
SHAP A.2 the method called Kernel SHAP by (Lundberg & Lee, 2017). SHAP A.2 は Kernel SHAP by (Lundberg & Lee, 2017) と呼ばれる。 0.77
SHAP essentially We refer to SHAP as approach, which means of explanations values estimates Shapley calculation the that using LIME’s φ0 +(cid:80)n linear models squares algorithm. SHAP は本質的には SHAP をアプローチと呼び、これは説明値から LIME の φ0 +(cid:80)n の線形モデル二乗アルゴリズムを用いたシェープ計算を推定する。 0.81
use is fast due to the of least the weighted computed with local instance x with the SHAP method are the The contributions φi, feature explanation of i = 1, 2, ..., n · x(cid:48) g(x(cid:48)) linear model coefficients that are of the obtained with LIME, where i, = i=1 φi i ∈ {0, 1} i ∈ {1, 2, ..., n}. 局所インスタンス x と shap 法で計算された重み付けの最小値は φi であり、i = 1, 2, ..., n · x(cid:48) g(x(cid:48)) 線形モデル係数は lime で得られる、i, = i=1 φi i ∈ {0, 1} i ∈ {1, 2, ..., n} である。
訳抜け防止モード: 局所インスタンス x で SHAP メソッドで計算された加重計算が The contribute φi であるため、利用は高速である。 i = 1, 2, ..., n · x(cid:48 ) g(x(cid:48 ) ) の LIME で得られる線形モデル係数の特徴的説明。 i, = i=1 φi i ∈ {0, 1 } i ∈ {1, 2, ... , n } である。
0.87
x(cid:48) for assured with does values, this property is As LIME not compute Shapley L(f, g, πx(cid:48)). x(cid:48) は do 値で保証されるため、LIME は Shapley L(f, g, πx(cid:48)) を計算しない。 0.80
functions Ω(g), πx(cid:48)(z(cid:48)) , first define us the Let and function {0, 1}n is the to defined original function the feature space. 関数 s(g), πx(cid:48)(z(cid:48)) , 最初に Let を定義し、関数 {0, 1}n は特徴空間が定義される元関数である。 0.86
The hx f (hx(z(cid:48))) = E[f (z)|zi = xi ∀i ∈ {j; z(cid:48) j = 1}]. hx f (hx(z(cid:48))) = e[f(z)|zi = xi (z) ∈ {j; z(cid:48) j = 1}] である。 0.95
This is the expected value of z(cid:48) do not know the values of features at indices where equals 0 (these values and L(f, g, πx(cid:48)) Ω(g), πx(cid:48)(z(cid:48)) the values of Shapley computation enforce that (cid:0) (cid:1) · Ω(g) = 0, πx(cid:48)(z(cid:48)) = n (cid:88) , (n − |z(cid:48)|) · |z(cid:48)| n|z(cid:48)| · πx(cid:48)(z(cid:48)) , L(f, g, πx(cid:48)) = (f (hx(z(cid:48))) − g(z(cid:48)))2 z(cid:48)∈Z and Z ⊆ 2{0,1}n. |z(cid:48)| denotes z(cid:48) of features the number of nonzero f (hx(z(cid:48))) this method because in value the determine to sampling is of the purpose in f (hx(z(cid:48))), uses SHAP predictive models values. This is the expected value of z(cid:48) do not know the values of features at indices where equals 0 (these values and L(f, g, πx(cid:48)) Ω(g), πx(cid:48)(z(cid:48)) the values of Shapley computation enforce that (cid:0) (cid:1) · Ω(g) = 0, πx(cid:48)(z(cid:48)) = n (cid:88) , (n − |z(cid:48)|) · |z(cid:48)| n|z(cid:48)| · πx(cid:48)(z(cid:48)) , L(f, g, πx(cid:48)) = (f (hx(z(cid:48))) − g(z(cid:48)))2 z(cid:48)∈Z and Z ⊆ 2{0,1}n. |z(cid:48)| denotes z(cid:48) of features the number of nonzero f (hx(z(cid:48))) this method because in value the determine to sampling is of the purpose in f (hx(z(cid:48))), uses SHAP predictive models values. 0.96
determine hidden cannot work with To centroids of training set D which we distribution from the set. セットから配布するトレーニングセットDのToセントロイドでは、非表示にすることはできません。 0.60
For D, SHAP takes the obtain training algorithm on obtained set. d の場合、shap は取得した集合の訓練アルゴリズムを取る。 0.64
the clustering k-means is clusters of number The the by (cid:88) f (hx(z(cid:48))) following by determined by the user. クラスタリング k-平均は数値のクラスタである (cid:88) f (hx(z(cid:48))) by by the determined by the user。 0.85
Value of is the sampling: f (hx(z(cid:48))) = E[f (z)|zi = xi ∀i ∈ {j; z(cid:48) j = 1}] = 1 |D| d∈D z(cid:48) being in are that features x with instance x[xi=di,z(cid:48) 0 i=0] f (hx(z(cid:48))) = e[f(z)|zi = xi si ∈ {j; z(cid:48) j = 1}] = 1 |d|dservletd z(cid:48) は x[xi=di,z(cid:48) 0 i=0] の例を持つ特徴 x である。 0.85
selection of the proper hx(z(cid:48)) from that maps the equation implicitly with f when we the model are hidden). 適切な hx(z(cid:48)) の選択は、モデルが隠れているとき、その方程式を暗黙的に f に写像する。 0.76
Functions are: where The main general the clusters set 機能は以下の通り。 ここでは、クラスタセットのメインジェネラルが 0.57
f (x[xi=di,z(cid:48) f (x[xi=di,z(cid:48) 0.86
denotes feature values i=0]), 表記 特徴 値 i=0])。 0.67
the (4) where from d. はあ? (4) dの出身。 0.59
set to IME feature explanation of x with the method IME are are the values features in a (f (w[wi=xi,i∈P rei(π)∪{i}]) − f (w[wi=xi,i∈P rei(π)])), セット へ IME 法を用いた x の IME の特徴説明は、 a (f (w[wi=xi,i∈P rei(π)\{i}]) − f (w[wi=xi,i∈P rei(π)])) における値特徴である。 0.76
A.3 The Shapley that shoved (2013) Kononenko every subset of for interactions butions of (cid:88) (cid:88) expresiion: following calculated with the · 1 n w∈X π∈Sn A.3 The Shapley that shoved (2013) Kononenko every subset of for interaction bution of (cid:88) (cid:88) expresiion: following by the · 1 n w∈X π∈Sn 0.91
ˇStrumbelj & ..., n. contributions φi, i = 1, 2, account that only solution takes contriinto fair way. Strumbelj & ..., n. contributions φi, i = 1, 2, account that only solution takes contriinto fair way. 0.81
The i-th feature contribution can be i-th 機能への貢献は 0.69
φi(x) = p(w) φi(x) = p(w) 0.92
(5) 13 (5) 13 0.85
英語(論文から抽出)日本語訳スコア
X set instances, training the elements, of permutations group denotes of denotes where a n Sn i.e. x set instance, training the elements, of permutations group は n sn i.e の場所を表す。 0.81
π, permutation in precedes that indices of the set the represents P rei(π) P rei(π) = i X {j; π(j) π(i)}). π, 置換は、集合の指数が P rei(π) P rei(π) = i X {j; π(j) π(i)} を表すことを先行する。 0.80
Let let and of instance the in denote the probability p(w) w[f ormula] w < formula. 例えば、in は確率 p(w) w[f ormula] w < formula を表す。 0.60
To the to according values some with of its features changed denote the instance w |X| · have to go through iterations, which can be slow. その値に従って変化した特徴のいくつかは、w |X| · のインスタンスを反復する必要があり、これは遅くなる可能性がある。 0.62
Therefore, the calculate φi(x), we n! したがって、計算 φi(x, we n! 0.80
is feature of The sampling. はサンプリングの特徴です。 0.62
following the uses IME method i-th sampling population = Vπ,w (f (w[wi=xi,i∈P rei(π)∪{i}]) − f (w[wi=xi,i∈P rei(π)])) every for permutation combination of the π draws mi IME instance and w. samples random with repetition. 使用 IME 法 i-th サンプリング人口 = Vπ,w (f (w[wi=xi,i∈P rei(π)\{i}]) − f (w[wi=xi,i∈P rei(π)]) に従って、π の置換の組み合わせは mi IME インスタンスと w. サンプルを繰り返しでランダムに描画する。 0.90
The estimate of at V1, ..., Vmi mi(cid:88) is defined with the equation: φi(x) i=1 V1, ..., Vmi mi(cid:88) の推定は方程式 φi(x) i=1 で定義される。 0.89
1 mi ˆφi = 1ミリ φi = φi 0.55
(6) Vi. Contrary to SHAP, IME does not use approximation with linear models, which compute all contributions at once but has separately. (6) vi。 SHAPとは対照的に、IMEは線形モデルによる近似を使用しない。
訳抜け防止モード: (6) vi。 SHAPとは対照的です。 IMEでは線形モデルによる近似は使用せず、すべてのコントリビューションを一度に計算します。
0.70
feature for robust each features. 各機能を堅牢にするための機能。 0.58
method the does not assume features’ to compute the Shapley values by averaging over a large enough sample This makes the as shape of 想定しない方法 特徴」は、十分な大きさのサンプルを平均してShapley値を計算します。 0.64
potentially more normalized the method the dependency より正常化され the method―the method 0.66
also but space of slower in the ですが 空間は 遅くなる。 0.58
OF DEMONSTRATION B SHAP IN SAMPLING evaluation part of the in Figure 3 show the PCA based 2D space of The graphs the COMPAS dataset SHAP-generated the dataset the (see Section 4 for left-hand side shows sampled silhouette the k-means the instances using determined by score (Rousseeuw produced with The (1987)). のり デモ 図3のサンプリング評価部におけるbシェープは、コンパスデータセットシェープが生成したデータセットのpcaベースの2d空間を示す(左辺のセクション4は、スコアで決定された値(1987)を用いてk平均するサンプルシルエットを示す)。 0.53
right-hand the on shown gSHAP is in the MCD-VAE generator sample to the original distribution compared to the SHAP sampling. 右図の gSHAP は MCD-VAE ジェネレーターのサンプルから SHAP のサンプリングと比較して元の分布までです。 0.85
side. This sample is much more 横だ このサンプルはずっと多い 0.62
description). algorithm (14 similar 説明)。 アルゴリズム(14類似) 0.79
The clusters BETTER クラスターは ベッター 0.51
3: Visual of Figure comparison SHAP k-means based generator to the MCD-VAE generator (right). 3: 視覚 図の比較 SHAP k 平均ベースのジェネレーターと MCD-VAE ジェネレーター(右)。 0.71
original and (left) produces original (複数形 originals) 0.63
sampled instances サンプルインスタンス 0.74
for distributions the COMPASS to the original data, similar 元のデータにコンパスを配布するのも同様です 0.67
dataset. The compared データセット。 比較 0.59
less C IME CONVERGENCE より少なく C IMEコンバージェンス 0.70
IMPROVED GENERATOR we Preliminary, tested explanation the of rate IME the affect generators how better convergence preliminary The method. IMPROVED Generationor We Preliminary, test on the rate IME the affect generators how better convergence preliminary The method。 0.69
of needed number the in reduction in results Table 2 significant show a samples and a slight Note sampling. 必要な数 結果の削減率 表2の重要度は、サンプルとわずかなメモのサンプリングを示す。 0.82
perturbation original increase in the error compared to the biased that used which was sampling, perturbation in is error measure the the of favor deployed the standard. 乱れの元々の誤差は サンプリングに使われたバイアスに比較して増加します 乱れは 標準を配置した 好ましくない測定値です 0.73
to determine gold This was determined with the sampling variance, as population’s ˇStrumbelj & Kononenko described in (2010). 金を決定するために、標本のばらつきが決定され、2010年の人口統計書『strumbelj & kononenko』に記載された。 0.55
THE TREEENSEMBLE The TREEENSEMBLE 0.84
RATE WITH RATE with ~ 0.64
D Details 3. We D 詳細 3。 私たち 0.69
TRAINING training of used a slightly 使用者の微妙な訓練訓練 0.62
DISCRIMINATOR attacker’s different DisCRIMINATOR攻撃者は違う 0.65
OF decision models d (see Figure algorithm for the 決定モデル d (図のアルゴリズムを参照) 0.74
FUNCTION ATTACKER THE is 1b) 1, in Algorithms described explanation methods, LIME, three 機能 ATTACKER THE is 1b) 1, in algorithms described description method, LIME, three 0.75
each of 2, and SHAP, 各々 ですから 2およびSHAP。 0.59
14 14 0.85
英語(論文から抽出)日本語訳スコア
Classifier Naive Bayes Linear SVM Random forest Neural network 分類器 Naive Bayes Linear SVM Random Forest Neural Network 0.91
Perturb. 0.0076 0.0033 0.0049 0.0057 パーターブ。 0.0076 0.0033 0.0049 0.0057 0.44
Error TEnsFillIn 0.0217 0.0080 0.0221 0.0130 Error TEnsFillIn 0.0217 0.0080 0.0221 0.0130 0.55
COMPAS dataset Perturb. COMPASデータセットPerturb。 0.82
18571 8244 45372 16157 18571 8244 45372 16157 0.85
samples # TEnsFillIn 11278 4423 26960 8841 sample # TEnsFillIn 111278 4423 26960 8841 0.81
Reduction % 39 46 41 45 %削減 39 46 41 45 0.78
Classifier Naive Bayes Linear SVM Random forest Neural network 分類器 Naive Bayes Linear SVM Random Forest Neural Network 0.91
Perturb. 0.0076 0.0005 0.0046 0 パーターブ。 0.0076 0.0005 0.0046 0 0.48
Error TEnsFillIn 0.0201 0.0013 0.0141 0 Error TEnsFillIn 0.0201 0.0013 0.0141 0 0.63
German dataset Perturb. ドイツのデータセット。 0.72
56052 3877 92478 0 56052 3877 92478 0 0.85
samples # TEnsFillIn 39257 2157 66639 26 TEnsFillIn 39257 2157 66639 26のサンプル。 0.89
Reduction % 30 44 28 / %削減 30 44 28 / 0.78
Classifier Naive Bayes Linear SVM Random forest Neural network 分類器 Naive Bayes Linear SVM Random Forest Neural Network 0.91
Perturb. 0.0028 0.0009 0.0032 0.0012 パーターブ。 0.0028 0.0009 0.0032 0.0012 0.44
Error TEnsFillIn 0.0046 0.0048 0.0045 0.0061 Error TEnsFillIn 0.0046 0.0048 0.0045 0.0061 0.55
CC dataset Perturb. CCデータセットPerturb。 0.82
32910 73324 109958 144183 32910 73324 109958 144183 0.85
samples # TEnsFillIn 20117 39098 58852 70020 TEnsFillIn 20117 39098 58852 70020のサンプル。 0.89
Reduction % 39 47 46 51 %削減 39 47 46 51 0.78
CA % 83 84 80 84 CA % 83 84 80 84 0.85
CA % 77 69 74 69 CA % 77 69 74 69 0.85
CA % 70 62 79 72 CA % 70 62 79 72 0.85
data generator with the TreeEnsemble and sampling perturbation original of Comparison Table 2: colThe set. TreeEnsemble を使用したデータ生成とサンプル摂動の比較表 2: colThe セット。 0.74
for scores show the fill-in The results IME method. for scores show the fill-in 結果 IME メソッド。 0.79
inside evaluation the average using the presents perturbation the based presents umn Perturb. 内部評価 プレゼンテーションの摂動を用いた平均は、umnの摂動である。 0.69
sampling and TEnsFillIn sampling generator with missing TreeEnsemble parts of instances filled in. sample and TEnsFillIn sample generator with missing TreeEnsemble part of instance filled。 0.66
The Reduction column shows the reduction in the number of samples using the TEnsFillIn method compared to perturbations. 次に,TEnsFillIn法によるサンプル数の減少について,摂動との比較を行った。 0.60
The set. evaluation the on classifier explained the of classification accuracy the for CA stands セット。 CAスタンドの分類精度を説明したオン・クラシファイアの評価 0.64
different and IME, as each method uses a first create out-of-distribution sampling. different と IME は、各メソッドが最初にout-of-distriion サンプリングを作成するためである。 0.52
Algorithms inlabeling created are for training The sampling. 生成したアルゴリズムは、サンプリングをトレーニングする。 0.65
stances by method-specific by decision models sets from access) has attacker (to which from sample instances the 0; created the instances with the S dModel labeled with are Finally, 1. distribution Xdist learning model the machine is trained on this dModel returned training set and as d. In our experiments, we used random forest classifier as and as S. evaluation dataset each part of training the メソッド固有の決定モデルによるスタンス(アクセスからの決定モデルによるスタンス)は攻撃者(サンプルインスタンスから0;S dModelでラベル付けされたインスタンスを作成する)を持ち、最後に1.ディストリビューションXdist学習モデルは、マシンがこのdModelで訓練されたトレーニングセットとd.実験では、ランダム森林分類器をトレーニングの各部分として使用しました。 0.82
E HEATMAPS へえ HeATMAPS 0.53
AS TABLES We present AS 表 ご紹介します 0.58
the information contained はあ? 含まれる情報 0.54
in Figure 2 in a more detailed 図2では で もっと詳しく言うと 0.76
tabular form in Table 表 テーブルで形成する 0.70
3. F COMPARING EXPLANATIONS 3. F 比較 解説 0.62
OF ORIGINAL AND MODIFIED METHODS のり オリジナル 改質方法及び改質方法 0.47
split environment. We non-adversary in explanations affect generators improved check if We data from four classifiers 10%, trained the set in evaluation ratio and into dataset the training and 90% : SVC (SVM for linear naive Bayes, library: al. 環境を分割します 我々は,4つの分類器のデータを10%,評価率でトレーニングし,トレーニングのデータセットとしてSVC (SVM for linear naive Bayes, Library: al。
訳抜け防止モード: 環境を分割します 説明の逆はジェネレータに影響する 4 つの分類器からのデータが 10 % であればチェックが改善される。 評価比とデータセットのセットをトレーニングし、90% : svc (svm for linear naive bayes, library : al) をトレーニングした。
0.67
(Pedregosa scikit-learn Python Gaussian et (2011)) classifier of predictions explained neural and random forest, classification), each network. (Pedregosa scikit-learn Python Gaussian et (2011))予測の分類器は、各ネットワークに神経およびランダムな森林、分類を説明する。 0.83
We the of combination explanation methods every on the evaluation set with and generators the used in adversarial attack experiments. 本手法は, 敵攻撃実験で使用するジェネレータと評価セットをそれぞれ組み合わせて説明する手法である。 0.73
For instances evaluation set, we measured the mean absolute in the インスタンス評価セットでは,平均絶対値を測定した。 0.73
15 15 0.85
英語(論文から抽出)日本語訳スコア
to by the used へ で はあ? 使用 0.58
attacker distinguish Algorithm 1: Training of the decision model ind, and samples produced by explanation methods LIME or gLIME. 攻撃者 区別する アルゴリズム1:決定モデルindの訓練、および説明方法LIMEまたはgLIMEによって生成されるサンプル。 0.72
from distribution Xdist stances i=1}: S = {(xi)m Input: training set, nSamples: each instance xi ∈ D, data generator, dModel: machine gen: Output: Classifier d that outputs 1 if its X ← ∅ // Training set for dModel on S data generator // Train the gen.f it(S) for i = 1 to m do X ← X ∪ (xi, 1) from distribution // Add an instance G ← gen.newdata(nSamples , xi) // Generate nSamples for j = 1 to nSamples do // Add nSamples out of distribution X ← X ∪ (G[j], 0) from set G to X instance j-th // Add end end d ← dM odel.f it(X) return d from distribution Xdist stances i=1}: S = {(xi)m Input: training set, nSamples: each instance xi ∈ D, data generator, dModel: machine gen: Output: Classifier d that outputs 1 if its X ← ∅ // Training set for dModel on S data generator // Train the gen.f it(S) for i = 1 to m do X ← X ∪ (xi, 1) from distribution // Add an instance G ← gen.newdata(nSamples , xi) // Generate nSamples for j = 1 to nSamples do // Add nSamples out of distribution X ← X ∪ (G[j], 0) from set G to X instance j-th // Add end end d ← dM odel.f it(X) return d 0.95
number of generated instances learning algorithm otherwise and from Xdist 0 Xdist 0 から生成されたインスタンス学習アルゴリズムの数 0.81
new samples instances 新しいサンプルインスタンス 0.79
// Fit model dModel //フィットモデルdModel 0.90
input x is between around xi 入力 x は 間 xi周辺で 0.74
set X and save X をセットし 救え 0.69
in d for to d では ですから へ 0.66
it 0 otherwise それ 0 そうでなければ 0.62
set, gen: from Xdist set, gen: Xdistから 0.82
to distinguish between instances インスタンスを区別する 0.62
distribution input x is Algorithm 2: Training of the decision model d, used by attacker gSHAP. 分布入力 x は アルゴリズム2:攻撃者gSHAPが使用する決定モデルdのトレーニング。 0.74
explanation methods SHAP or by produced and samples from distribution Xdist i=1}: S = {(xi)m Input: training set, nSamples: for number of generated instances each instance xi ∈ D, k: data generator, dModel: machine the generated size of algorithm learning Output: Classifier d that outputs 1 if and its X ← ∅ // Training set for dModel on S data generator // Train the gen.f it(S) if gen == KM eans or gen == rbf DataGen or D ← gen.newdata(k) distribution the // Generate end i = 1 to nSamples do // Add for x ← random instance from S gen == M CD − V AE or if w ← gen.newdata(1, x) end else treeEnsemble or // KMeans, w ← take a random instance end M ← choose random subset of a x[M ] ← w[M ] // Replace X ← X ∪ (x, 0) // Add out end for i = 1 to m do // Add instances X ← X ∪ (xi, 1) end d ← dM odel.f it(X) return d explanation methods SHAP or by produced and samples from distribution Xdist i=1}: S = {(xi)m Input: training set, nSamples: for number of generated instances each instance xi ∈ D, k: data generator, dModel: machine the generated size of algorithm learning Output: Classifier d that outputs 1 if and its X ← ∅ // Training set for dModel on S data generator // Train the gen.f it(S) if gen == KM eans or gen == rbf DataGen or D ← gen.newdata(k) distribution the // Generate end i = 1 to nSamples do // Add for x ← random instance from S gen == M CD − V AE or if w ← gen.newdata(1, x) end else treeEnsemble or // KMeans, w ← take a random instance end M ← choose random subset of a x[M ] ← w[M ] // Replace X ← X ∪ (x, 0) // Add out end for i = 1 to m do // Add instances X ← X ∪ (xi, 1) end d ← dM odel.f it(X) return d 0.94
gen == treeEnsemble set with KMeans, nSamples out instances then gen == treeEnsembleF ill // Generate vicinity of x the rbfDataGen from D len(x)} {1, 2, ..., the values of chosen features of distribution instance from distribution gen == treeEnsemble set with KMeans, nSamples out instance then gen == treeEnsembleF ill // Generate near of x the rbfDataGen from D len(x)} {1, 2, ..., the values of select features of distribution instance from distribution. 0.89
random features from w as w からのランダムな特徴 0.86
// Choose in x with values // x で値を選択します。 0.68
then or rbfDataGen または rbfDataGen 0.81
in SHAP method SHAP メソッドで 0.71
an instance w in treeEnsemble 例 w in TreeEnsemble 0.72
distribution in d of 流通 d では ですから 0.65
it difference (MAD) それ 違い (MAD) 0.76
following equation: to save 以下 方程式: へ 救え 0.68
// Fit model dModel //フィットモデルdModel 0.90
set X and n(cid:88) the defined with of modified explanation methods, (x) − φi(x)|, |φgen i i=1 feature i-th of explanations (recall that denotes the n set X and n(cid:88) the defined with of modified explanation method, (x) − φi(x)|, |φgen i i=1 feature i-th of explanations (recall that represent the n. 0.95
represent the respectively MADgen(x) = それぞれを表す MADgen(x) = 0.77
1 n the modified by returned features of number the 1n 番号の返却された特徴によって修正される 0.70
in (7) and data で (7) データと 0.78
and φgen φi(x) (x) i explanation method, そして φgen φi(x) (x) i の説明方法 0.82
where original set). オリジナルセット)。 0.51
We that, we used synthetic dataset 私たちは合成データセットを使って 0.78
experimented on three datasets. 3つのデータセットで実験しました 0.52
The COMPAS dataset COMPASデータセット 0.77
is described in Section 4.1. condInd from Robnik-ˇSikonja & Kononenko (2008), ロブニク=シコンジャ&コノネンコ(2008)の4.1.condIndに記載されています。 0.41
In addition to and Ionosphere 16 イオン圏に加えて 16 0.69
英語(論文から抽出)日本語訳スコア
to distinguish between instances インスタンスを区別する 0.62
IME or gIME. IME または gIME。 0.92
for each instance Algorithm 3: Training of the decision model d, used by attacker by explanation methods produced and samples from distribution Xdist i=1}: S = {(xi)m Input: training set, nSamples: number of generated instances xi ∈ D, data generator, dModel: machine gen: learning algorithm Output: Classifier d that outputs 1 its if input x is otherwise and from Xdist 0 X ← ∅ // Training set for dModel set S on data generator // Train the gen.f it(S) for i = 1 to m do X ← X ∪ (xi, 1) // Add an instance from distribution j = 1 to nSamples do // Add for nSamples out w ← gen.newdata(1, xi) // Generate b1 ← w // First instance of distribution out b2 ← w // Second out of distribution instance π ← choose from Slen(xi) random permutation a // a i.e. ですから 各例 Algorithm 3: Training of the decision model d, used by attacker by explanation methods produced and samples from distribution Xdist i=1}: S = {(xi)m Input: training set, nSamples: number of generated instances xi ∈ D, data generator, dModel: machine gen: learning algorithm Output: Classifier d that outputs 1 its if input x is otherwise and from Xdist 0 X ← ∅ // Training set for dModel set S on data generator // Train the gen.f it(S) for i = 1 to m do X ← X ∪ (xi, 1) // Add an instance from distribution j = 1 to nSamples do // Add for nSamples out w ← gen.newdata(1, xi) // Generate b1 ← w // First instance of distribution out b2 ← w // Second out of distribution instance π ← choose from Slen(xi) random permutation a // a i.e. 0.74
features idx ← choose from {1, 2, len(xi)} a random number ..., len(xi)}, π(k) < π(idx)} M1 ← {k ∈ {1, 2, // Features permutation π M2 ← M1 ∪ {idx} b1 ← xi[M1] IME method in as // Vector b1 b2 ← xi[M2] IME method in as // Vector b2 X ← X ∪ {(b1, 0), (b2, 0)} // Add of end end d ← dM odel.f it(X) return d 特徴 idx は {1, 2, len(xi)} a random number ..., len(xi)}, π(k) < π(idx)} M1 は {k ∈ {1, 2, // Features permutation π M2 は M1 は {idx} b1 は xi[M1] IME method in as // Vector b1 b2 は xi[M2] IME method in as // Vector b2 X は X は {(b1, 0), (b2, 0)} // end d は dM odel.f it(X) return d/ 0.81
(ˇStrumbelj & Kononenko (2013)) (ˇStrumbelj & Kononenko (2013)) distribution instances (sstrumbelj & kononenko (2013)) (sstrumbelj & kononenko (2013))ディストリビューションインスタンス 0.76
instances distribution an instance w in the vicinity of xi インスタンス w を xi の近傍に分布させる 0.73
// Fit model dModel //フィットモデルdModel 0.90
set X and save X をセットし 救え 0.69
in d that out d では あれ 出ろ 0.72
..., of to ..., ですから へ 0.58
it random permutation それ random‐permutation 0.77
of xi’s precede xi の例です。 前だ 0.60
idx in (Dua & Graff target variable, The attributes. idx in (Dua & Graff ターゲット変数、属性。 0.75
repository from UCI dataset from the problem. 問題からのUCIデータセットからのリポジトリ。 0.66
Apart numerical consists of 34 351 instances. 数値は34の351の例からなる。 0.80
contains original LIME and between differences 4. in Table shown results The The are LIME since fits surprising is This not table). 元のLIMEを含み、相違の間に4.表の示された結果の4.Theは驚きに合うのでLIMEですこのテーブルではないです)。 0.51
the are considerable (see top perturbations small even for differ strongly can explanations, which its local SHAP average MAD IME and almost is (the similar very are explanations significantly different explanations of gSHAP and gIME are not conclude that in the non-adversary environment. 本研究は, GSHAP と gIME の相違点として, 局所的な SHAP 平均MAD IME とほぼ同値である(gSHAP と gIME の相違点が, 逆でない環境では説明できない)。
訳抜け防止モード: 訳語 相当な;相当な 強い違いがあっても トップの摂動が小さいのを見てください ローカルな SHAP 平均MAD IME とほぼ同値な説明(同様の説明は gSHAP と gIME の全く異なる説明である)は、非敵対的な環境では結論しない。
0.67
represent binary 2000 バイナリ2000を表します 0.54
(2019)). condInd condInd (2019)). condInd condInd 0.85
Both consists datasets どちらもデータセットです。 0.46
datasets of 8 contains a 8のデータセットは あ... 0.48
classification binary features, while Ionosphere and instances Ionosphere 電離圏と例電離圏の分類 0.47
gLIME explanations local linear models in of the model’s input. gLIMEはモデルの入力のローカル線形モデルを説明します。 0.78
negligible). can We from SHAP and IME 無視可能)。 SHAP と IME は可能か? 0.52
17 17 0.85
英語(論文から抽出)日本語訳スコア
for gLIME of ですから gLIME 0.53
table), results gIME (bottom and gSHAP table), (top (middle robustness The 3: Table feature was sensitive the instances, where set evaluation proportion tables The table). table)、結果 gIME (bottom and gSHAP table)、(top (middle robustness) 3: Table feature was sensitive the instance, where set Evaluation proportion table テーブル。 0.71
show the the generators represent important by the used explanation method. 使用する説明方法によって重要な発電機を示します。 0.77
Columns recognized as the most the dataset on which the experiment was used for explanations. カラムは、実験が説明に使われた最も多くのデータセットであると認識した。 0.68
The row labels consist of the name of and adversarial model. 行ラベルは、名前と逆モデルで構成されています。 0.63
of training for generator the the performed used of and Compas2 the name sampling represents Perturbation features. ジェネレータのトレーニングでは、実行されたCompas2と名前サンプリングは摂動機能を表す。 0.63
independent two attacks with denote CC2 and used in LIME, SHAP, IME, TEnsFillIn represents a variant of generator the where new instances are generated around the given one, and TreeEns generation from the whole distribution. CC2を指示し、LIME、SHAP、IME、TEnsFillInで使用される独立した2つの攻撃は、与えられたインスタンスの周りに新しいインスタンスが生成されるジェネレータの変種を表し、配布全体からTreeEns生成を表します。 0.63
original the TreeEnsemble represents the TreeEnsembleのオリジナルは、 0.70
18 18 0.85
英語(論文から抽出)日本語訳スコア
Table 4: The differences in gSHAP gLIME (top (middle table), and IME and gIME (bottom table). 表4: gSHAP gLIME (top (middle table) と IME と gIME (bottom table) の違い。 0.68
The show MAD and the variance of MAD on Columns and explanation method every set for evaluation used represent MAD and the The used row the and generator. ショーMADとコラム上のMADの分散と、使用される評価のための各セットの説明方法は、MADと使用済み行とジェネレータを表します。 0.77
classifier between LIME and tables the of datasets. 分類器 LIMEとテーブルの間にあるデータセット。 0.67
of MAD on explanations combination variance MADとは? 説明 組み合わせのばらつき 0.71
table), SHAP and predictive model. 表) SHAPと予測モデル。 0.64
labels consist of label (複数形 labels) 0.45
19 19 0.85
英語(論文から抽出)日本語訳スコア
et(x) = , the et(x) = , はあ? 0.68
decision the now defined with used only 10%. 決断だ 定義は 10%しか使ってない 0.61
We ADVERSARIAL G PREDICTION DIFFERENT CLASSIFIERS WITH THRESHOLDS decide and by discovered being be wary attacker might scenario, a In the of the realistic regulator is it only inside instance the that certain employ to deception when really predicted is used the sensitive variable times when the the number of explanation method. 私たち 逆g予測 しきい値を持つ異なる分類器が決定し、警告される攻撃者が想定するシナリオによって、現実的なレギュレータのaは、実際に予測された場合に、ある者が偽装に使用するのは、説明方法の回数に敏感な変数時間のみである。 0.69
In these circumstances, is used used. このような状況では用いられる。 0.74
classifier biased the how aggressively also the model will inside This on depend reflection is success, which measures proportion leads another metric for the defense’s instances when to the of conservatism. 分類器は、この依存反射は成功であり、プロポーションを測定することで、防御のインスタンスに対する別のメトリクスを保守主義に導く。
訳抜け防止モード: 分類器は いかに積極的に また、モデルもこの内部でリフレクションに依存します 成功です 測度比率は、保守主義の時における防衛の事例の別の指標となる。
0.81
levels different at is is variable the being sensitive identified when it used, i.e. isで異なるレベルは、使用時に機密性が識別される変数である。 0.75
of conservatism by We express different levels attacker’s changing the threshold of of (cid:26)b(x), adversarial model function is threshold uses et, which the of output The d. t equation: dprob(x) ≥ t (8) ψ(x), dprob(x) < t returned by decision model from distribution Xdist, the probability that x is where dprob(x) denotes that certainty instance given the of represents Threshold is from the d. therefore required attacker t biased classifier being in result of values classifier. cd:26)b(x)のしきい値の異なるレベルの攻撃者の変化を表現すれば、逆モデル関数はしきい値を使う。出力のd.t式:dprob(x) s(8) t(x), dprob(x) < tは分布Xdistから決定モデルによって返される。
訳抜け防止モード: 異なるレベルの攻撃者が(cid:26)b(x)のしきい値を変更することを表現します。 adversarial model function is threshold use et, which the output t equation : dprob(x ) t (8) t (x ) dprob(x ) < t は分布 Xdist から決定モデルで返されます。 x が dprob(x ) である確率 Threshold を表すインスタンスが d からのものであることを示します。 アタッカーtバイアス付き分類器は、値分類器の結果です。
0.82
it deploys before the Larger biased t will Xdist use fewer deployed times but with larger certainty that it has to be used. バイアスの大きいtwill xdistがデプロイ時間を減らす前にデプロイするが、使用すべき確実性はより大きい。 0.61
If we in Equation t = 0.5 get (8), we in (1) described with Equation one, the to identically behaves that adversarial model the 2.2. 方程式 t = 0.5 get (8) のとき、(1) で Equation 1 で記述すると、to はその逆モデル 2.2 を同一に振舞う。 0.80
Section the the COMPAS dataset, which we experiment, we In this evaluaand training into split ratio tion set in different but with 4.2, section as performed experiment in the 90% : and 0.7. thresholds: adversarial models. 実験を行ったcompasデータセットのセクション このvavasluaandトレーニングでは、異なるセットでセットされた分割比率を4.2のセクションに分け、90% : および0.7.しきい値で実験した。 0.76
We the thresholds for used five different 0.3, 0.4, 0.5, 0.6 For biased model. バイアスドモデルでは5つの異なる0.3, 0.4, 0.5, 0.6のしきい値を用いた。 0.64
of deployment how different checked We first thresholds the each genthe affect used erator used in the adversarial model’s threshold certainty the by the adversarial and training set, where model, we measured of evaluation the biased classifier the proportion from the instances instances where in was percentage the expected, 5. shown results The deployed. デプロイに関して、まず、チェックした各ジェネレータのしきい値 敵モデルのしきい値に対する影響 敵とトレーニングセットによる確実性 モデルでは、偏りのある分類器が、期待される割合のインスタンスから比率を計測し、5.がデプロイされた結果を示しました。 0.69
of As Table are deployed classifier biased decreases with deployed is classifier biased the t. increasing The is less also expected, training, which is and rbfDataGen in its frequently when using treeEnsemble these as give two generators the best results inside the explanation methods. テーブルがデプロイされるにつれて、分類器のバイアスが減少し、デプロイされた分類器はtに偏っている。増加が予想されにくくなると、ツリーを使用するときに頻繁に使用するトレーニング、およびrbfDataGenがこれらを2つのジェネレータに説明メソッド内で最良の結果を与えるように組み立てる。
訳抜け防止モード: 表がデプロイされた分類器 デプロイされた分類器 バイアスされた分類器 t. increasing The is not not expected。 訓練とは rbfDataGenは、その頻度で treeEnsemble を使って 2つの発電機に 説明方法の最良の結果を与える
0.78
This means that for these generators, distinguish between actual instances and generated is more difficult for an attacker to the it instances. これは、これらのジェネレータでは、実際のインスタンスと生成されたインスタンスを区別することがより困難であることを意味する。 0.57
The biased classifier the LIME adversarial model is deployed the most often in the case of often in the SHAP adversarial model. バイアス付き分類器 lime adversarial model は、しばしば shap adversarial model で使用される場合に最も頻繁にデプロイされる。 0.77
and least feature (in case of COMPAS dataset of proportion Next, we tested instances where the the sensitive race) was feature by the explanation method on two different the most recognized as this is important deployed classifier was biased on which set evaluation from the instances subsets the instances: of the whole of for set. そして、最小の機能(次に比較データセットをテストした場合、感度の高い競合のインスタンスをテストした)は、2つの異なる説明方法によって特徴付けられる 最も重要なものとして、デプロイされた分類器は、インスタンスのサブセットからどのセットの評価をするかに偏りがあった。 0.71
thresholds evaluation all and We measured these numbers and combinations and 8 explanation methods. 閾値を全て評価し、これらの数と組み合わせと8つの説明方法を測定した。 0.64
The are shown in Tables 6 (gLIME), 7 (gSHAP) (gIME) for results section gLIME, gSHAP, and gIME, respectively. 結果セクション gLIME, gSHAP, gIME の表6 (gLIME), 7 (gSHAP) (gIME) にそれぞれ表示されます。 0.66
We can observe the same pattern as in 4.2: gIME The best generator treeEnsemble the robust, the most still is sensitive the still and results. 4.2でも同じパターンを観察できます: gIME 最高のジェネレータツリー堅牢なものを組み立てる、最もまだ敏感な静止画と結果です。 0.73
gives values threshold decision the often when feature more important the most as recognized attribute is the as are lower, which is expected in these cases, adversarial model behaves more aggressively. 値のしきい値を決定する 特徴がより重要であると認識される属性が低い場合、これらの場合、敵モデルはより積極的に振る舞う。 0.71
Whilst the percentage of the on which racist behavior of the adversarial model is instances the recognized drops with higher thresholds, it remains high the enough to warn the regulator about in of behavior problematic the (especially prediction model using gIME and gSHAP of case the From that, we explanation methods treeEnsemble as data generator). 反対モデルの人種差別的行動が、より高いしきい値を持つ認識された低下のインスタンスである割合にもかかわらず、それは(特に場合のgIMEとgSHAPを使用して予測モデル)行動の問題について規制当局に警告するのに十分な高いままデータジェネレータとしてツリーエンサンブルを説明します。 0.75
can conclude that modified remain robust enough, even with more adversaries. 修正は十分な堅牢さを保っていると 結論付けることができます 0.53
conservative same 20 保守的 同じだ 20 0.69
英語(論文から抽出)日本語訳スコア
Table 5: deployed Columns the lated” Table 5:Deployed Columns the lated” です。 0.89
biased which set evaluation the the on of Proportions in % of instances IME model and table) LIME SHAP (middle adversarial for (top table), classifier. インスタンスIMEモデルとテーブルの%でプロポーションのオンの評価を設定するバイアス) LIME SHAP((トップテーブル)分類器の中間逆数)。 0.75
The biased for deploying the represent different used threshold The labels ”One unrelated” adversarial generator used in training of the attack. 攻撃を展開するためのバイアスは、攻撃のトレーニングに使用されるラベル “one unrelated” アドバーサリージェネレータが異なる使用済み閾値を表している。 0.66
features. unrelated two or attacks with one the represent 特徴。 関係のない2つまたは1つの代表による攻撃 0.65
was classifier (bottom table). classifier (bottom table) でした。 0.85
rows represent and unre”Two rows と unre を表します。 0.71
21 21 0.85
英語(論文から抽出)日本語訳スコア
(race) of instances the most as where the sensitive feature was recognized Table 6: Percentages features unrelated two or (top one attacks with adversarial table) gLIME for feature with important pred. (人種) センシティブな特徴が認識された場所が最も多い例 表6:パーセンテージは、関連性のない2つまたは(敵のテーブルによるトップ1のアタック)、重要なpredを持つ特徴のためのglimeを特徴とする。 0.62
Biased the on which instances on columns The (bottom table). 列上のインスタンス(ボットテーブル)をバイアスします。 0.70
labeled represent results the All on results deployed, while the columns labeled represent the whole the biased classifier was numbers above represent the used threshold. ラベル付きは結果を表すが、ラベル付きカラムは全体の結果を表し、バイアス付き分類器は使用済みのしきい値を表す数値である。 0.75
The row labels are in the form evaluation sets. 行ラベルはフォーム評価セットに含まれる。 0.60
The <explainer> <adversarial> <explainer> where denotes the generator used in the explanation and <adversarial> denotes adversarial model. explainer> <adversarial> <explainer> ここで、この説明で使われるジェネレータと<adversarial>は逆モデルを表す。 0.70
the of training the in the generator used method 発電機の使用法を訓練すること 0.71
22 22 0.85
英語(論文から抽出)日本語訳スコア
(race) was the most recognized as sensitive attribute the Table 7: Percentage of instances where feaunrelated or table) one with adversarial gSHAP with feature important two (top attacks for pred. (race)が最も敏感な属性として認識されているのは、表7: 敵のgshapと重要な2つの攻撃(predに対するトップアタック)を持つインスタンスの割合。 0.67
labeled Biased on which instances results the represent columns The (bottom table). labeled Biased インスタンスの結果を表す列 The (bottom テーブル)。 0.66
tures on All on results classifier whole the the labeled represent the biased was deployed, while columns the evaluation The numbers above represent used threshold. tures on All on results classifier all the labeled represent the biased were deploy, while column the Evaluation 上記の数値は使用しきい値を表します。 0.86
The row labels are in the form sets. 行のラベルはフォームセットにあります。 0.69
<explainer> <adversarial> <explainer> where denotes the generator used in the explanation and <adversarial> denotes adversarial model. <explainer> <adversarial> <explainer> ここで、説明で使われるジェネレータを示し、<adversarial>は逆モデルを表す。 0.80
the of training the in the generator used method 発電機の使用法を訓練すること 0.71
23 23 0.85
英語(論文から抽出)日本語訳スコア
(race) was the most as recognized attribute sensitive the of Percentages Table 8: instances where features unrelated two or (top one attacks with table) adversarial for feature with important gIME pred. (race)は、Percentages Table 8のもっとも認識されている属性である: 重要なgimEプリドを持つ機能に対して、無関係な2つまたは(トップ1のアタック)が逆転するインスタンス。 0.67
Biased The (bottom table). Biased The(ボトムテーブル)。 0.70
the on which represent the results on instances columns labeled All the results labeled columns represent the on whole biased classifier while deployed, was the the used threshold. インスタンスの列で結果を表すオン ラベルされたすべての結果ラベル付きカラムは、デプロイ中のバイアス付き分類器全体を表し、使用中のしきい値である。 0.78
The row labels are in the form evaluation sets. 行ラベルはフォーム評価セットに含まれる。 0.60
The numbers above represent <explainer> <explainer> <adversarial> used generator the denotes explanation the in where and <adversarial> denotes the method the generator used in the training of adversarial model. 上記の数値は、<explainer> <explainer> <adversarial> ジェネレーターを使用して、どこにあるのかを説明し、<adversarial> は、敵モデルのトレーニングに使用されるジェネレーターのメソッドを表します。
訳抜け防止モード: 上記の数値は、< explainer > < explainer > < adversarial > used generator を表します。 そして<逆転>。 敵のモデルの訓練で使用される発電機の方法を示します。
0.72
24 24 0.85
                                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。