論文の概要: Post-hoc explanation of black-box classifiers using confident itemsets
- arxiv url: http://arxiv.org/abs/2005.01992v2
- Date: Sun, 20 Sep 2020 21:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:23:40.778124
- Title: Post-hoc explanation of black-box classifiers using confident itemsets
- Title(参考訳): 自信アイテムセットを用いたブラックボックス分類器のポストホックな説明
- Authors: Milad Moradi, Matthias Samwald
- Abstract要約: ブラックボックス人工知能(AI)法は予測モデルの構築に広く利用されている。
内部動作や決定ロジックがユーザから隠されているため,そのような方法による決定を信頼することは困難である。
- 参考スコア(独自算出の注目度): 12.323983512532651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box Artificial Intelligence (AI) methods, e.g. deep neural networks,
have been widely utilized to build predictive models that can extract complex
relationships in a dataset and make predictions for new unseen data records.
However, it is difficult to trust decisions made by such methods since their
inner working and decision logic is hidden from the user. Explainable
Artificial Intelligence (XAI) refers to systems that try to explain how a
black-box AI model produces its outcomes. Post-hoc XAI methods approximate the
behavior of a black-box by extracting relationships between feature values and
the predictions. Perturbation-based and decision set methods are among commonly
used post-hoc XAI systems. The former explanators rely on random perturbations
of data records to build local or global linear models that explain individual
predictions or the whole model. The latter explanators use those feature values
that appear more frequently to construct a set of decision rules that produces
the same outcomes as the target black-box. However, these two classes of XAI
methods have some limitations. Random perturbations do not take into account
the distribution of feature values in different subspaces, leading to
misleading approximations. Decision sets only pay attention to frequent feature
values and miss many important correlations between features and class labels
that appear less frequently but accurately represent decision boundaries of the
model. In this paper, we address the above challenges by proposing an
explanation method named Confident Itemsets Explanation (CIE). We introduce
confident itemsets, a set of feature values that are highly correlated to a
specific class label. CIE utilizes confident itemsets to discretize the whole
decision space of a model to smaller subspaces.
- Abstract(参考訳): 深層ニューラルネットワークのようなブラックボックス人工知能(AI)手法は、データセット内の複雑な関係を抽出し、新しい未知のデータレコードの予測を行う予測モデルを構築するために広く利用されている。
しかし、内部動作や決定ロジックがユーザから隠されているため、そのような方法による決定を信頼することは困難である。
説明可能な人工知能(XAI)とは、ブラックボックスAIモデルがその成果をいかに生み出すかを説明するシステムを指す。
ポストホックXAI法は特徴値と予測の関係を抽出することによりブラックボックスの挙動を近似する。
摂動ベースおよび決定セット法は、一般的に用いられるポストホックxaiシステムである。
前者の説明者は、個々の予測やモデル全体を説明する局所的あるいは大域的な線形モデルを構築するために、データレコードのランダムな摂動に依存する。
後者の解説者は、対象のブラックボックスと同じ結果を生み出す一連の決定ルールを構築するために、より頻繁に現れるこれらの特徴値を使用する。
しかしながら、これら2つのXAIメソッドのクラスにはいくつかの制限がある。
乱摂動は異なる部分空間における特徴値の分布を考慮に入れず、誤った近似をもたらす。
決定セットは、頻繁な特徴値にのみ注意を払い、モデルの決定境界を正確に表現する頻度は低いが、特徴とクラスラベルの間の多くの重要な相関を見逃す。
本稿では,CIE(Confident Itemsets Explanation)と呼ばれる説明手法を提案することによって,上記の課題に対処する。
特定のクラスラベルと高い相関関係を持つ特徴値の集合である自信ある項目セットを導入する。
CIEは自信あるアイテムセットを使用して、モデルの決定空間全体を小さな部分空間に識別する。
関連論文リスト
- CHILLI: A data context-aware perturbation method for XAI [3.587367153279351]
機械学習(ML)モデルの信頼性は評価が難しいが、リスクの高いアプリケーションや倫理的に敏感なアプリケーションでは重要である。
本稿では,文脈に意識された摂動を生成することで,データコンテキストをXAIに組み込む新しいフレームワークCHILLIを提案する。
これは説明の正確さと正確さを両立させることが示されている。
論文 参考訳(メタデータ) (2024-07-10T10:18:07Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Explanation-by-Example Based on Item Response Theory [0.0]
本研究は, 項目応答理論(IRT)を, モデルを説明し, 説明による信頼性のレベルを測定するためのツールとして検討する。
テストセットからすると、83.8%のエラーはIRTがモデルを信頼できないと指摘しているインスタンスからのものである。
論文 参考訳(メタデータ) (2022-10-04T14:36:33Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Explaining Predictions by Approximating the Local Decision Boundary [3.60160227126201]
局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
論文 参考訳(メタデータ) (2020-06-14T19:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。