論文の概要: Interpreting Deep Learning Models with Marginal Attribution by
Conditioning on Quantiles
- arxiv url: http://arxiv.org/abs/2103.11706v1
- Date: Mon, 22 Mar 2021 10:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:45:36.189925
- Title: Interpreting Deep Learning Models with Marginal Attribution by
Conditioning on Quantiles
- Title(参考訳): 分位子条件づけによる限界帰属を伴う深層学習モデルの解釈
- Authors: M. Merz, R. Richman, T. Tsanakas, M.V. W\"uthrich
- Abstract要約: 本稿では, 分位器のコンディショニングによる限界帰属と呼ぶ, グローバル勾配に基づくモデル非依存手法を提案する。
我々のアプローチは、個々の特徴(入力)に対する予測(出力)の限界属性の分析に基づく。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A vastly growing literature on explaining deep learning models has emerged.
This paper contributes to that literature by introducing a global
gradient-based model-agnostic method, which we call Marginal Attribution by
Conditioning on Quantiles (MACQ). Our approach is based on analyzing the
marginal attribution of predictions (outputs) to individual features (inputs).
Specificalllly, we consider variable importance by mixing (global) output
levels and, thus, explain how features marginally contribute across different
regions of the prediction space. Hence, MACQ can be seen as a marginal
attribution counterpart to approaches such as accumulated local effects (ALE),
which study the sensitivities of outputs by perturbing inputs. Furthermore,
MACQ allows us to separate marginal attribution of individual features from
interaction effect, and visually illustrate the 3-way relationship between
marginal attribution, output level, and feature value.
- Abstract(参考訳): ディープラーニングモデルの説明に関する文献が大幅に増えている。
本稿では,大域的勾配に基づくモデル非依存手法を導入し,量子論の条件付けによるMarginal Attribution(MACQ)と呼ぶ。
我々のアプローチは、個々の特徴(入力)に対する予測(出力)の限界帰属を分析することに基づいている。
具体的には,各領域における特徴の差分が,各領域の差分にどのように寄与するかを,(グローバル)出力レベルを混合することにより,変数の重要性を考察する。
したがって、MACQは、入力を摂動することで出力の感度を研究する蓄積局所効果(ALE)のようなアプローチに匹敵する限界属性と見なすことができる。
さらに、MACQは、個々の特徴の限界属性と相互作用効果を分離し、限界属性、出力レベル、特徴値の3方向の関係を視覚的に表す。
関連論文リスト
- On the Impact of Output Perturbation on Fairness in Binary Linear
Classification [0.3916094706589679]
二元線形分類において、差分プライバシーが個人と集団の公平性の両方とどのように相互作用するかを考察する。
我々は、摂動モデルが達成できる個人とグループフェアネスのレベルに基づいて、高い確率境界を導出する。
論文 参考訳(メタデータ) (2024-02-05T13:50:08Z) - Maturity-Aware Active Learning for Semantic Segmentation with
Hierarchically-Adaptive Sample Assessment [18.65352271757926]
Maturity-Aware Distribution Breakdown-based Active Learning (MADBAL)は、異なる「サンプル」の定義を共同で考慮したAL手法である。
MADBALは初期のALステージでも大幅なパフォーマンス向上を実現しているため、トレーニングの負担を大幅に削減できる。
実験で検証したように,都市景観とPASCALVOCデータセットの最先端手法よりも優れています。
論文 参考訳(メタデータ) (2023-08-28T21:13:04Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Bayesian Model Selection, the Marginal Likelihood, and Generalization [49.19092837058752]
まず,学習制約と仮説テストの限界的可能性の魅力について再考する。
ニューラルアーキテクチャ探索において,限界確率が一般化と負の相関関係を持つことが示唆された。
また, 限界確率とPAC-Bayes境界との接続を再検討し, モデル選択における限界確率の欠点をさらに解明するためにこの接続を利用する。
論文 参考訳(メタデータ) (2022-02-23T18:38:16Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer [89.21584915290319]
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
論文 参考訳(メタデータ) (2020-04-23T14:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。