論文の概要: An Additive Instance-Wise Approach to Multi-class Model Interpretation
- arxiv url: http://arxiv.org/abs/2207.03113v1
- Date: Thu, 7 Jul 2022 06:50:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 00:29:37.524249
- Title: An Additive Instance-Wise Approach to Multi-class Model Interpretation
- Title(参考訳): 多クラスモデル解釈への付加的インスタンスワイズアプローチ
- Authors: Vy Vo, Van Nguyen, Trung Le, Quan Hung Tran, Gholamreza Haffari, Seyit
Camtepe and Dinh Phung
- Abstract要約: 解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.87578024052922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable machine learning offers insights into what factors drive a
certain prediction of a black-box system and whether to trust it for
high-stakes decisions or large-scale deployment. Existing methods mainly focus
on selecting explanatory input features, which follow either locally additive
or instance-wise approaches. Additive models use heuristically sampled
perturbations to learn instance-specific explainers sequentially. The process
is thus inefficient and susceptible to poorly-conditioned samples. Meanwhile,
instance-wise techniques directly learn local sampling distributions and can
leverage global information from other inputs. However, they can only interpret
single-class predictions and suffer from inconsistency across different
settings, due to a strict reliance on a pre-defined number of features
selected. This work exploits the strengths of both methods and proposes a
global framework for learning local explanations simultaneously for multiple
target classes. We also propose an adaptive inference strategy to determine the
optimal number of features for a specific instance. Our model explainer
significantly outperforms additive and instance-wise counterparts on
faithfulness while achieves high level of brevity on various data sets and
black-box model architectures.
- Abstract(参考訳): 解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因と、それを高い意思決定や大規模デプロイメントのために信頼するかどうかに関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に焦点を当てている。
加法モデルでは、ヒューリスティックにサンプルされた摂動を用いて、インスタンス固有の説明を逐次学習する。
したがって、このプロセスは非効率であり、悪い条件のサンプルに影響を受けやすい。
一方、インスタンスワイド手法は、局所的なサンプリング分布を直接学習し、他の入力からのグローバル情報を活用することができる。
しかし、事前に定義された多数の機能に依存しているため、単一クラスの予測のみを解釈し、異なる設定で不整合に苦しむことができる。
本研究は両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
また,特定のインスタンスに対して最適な特徴数を決定するための適応推論手法を提案する。
モデル説明器は,多種多様なデータセットやブラックボックスモデルアーキテクチャにおいて,高レベルの簡潔性を達成しつつ,忠実度に対して加法的およびインスタンス的に優れる。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。