論文の概要: Interpreting Deep Learning Models with Marginal Attribution by
Conditioning on Quantiles
- arxiv url: http://arxiv.org/abs/2103.11706v1
- Date: Mon, 22 Mar 2021 10:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:45:36.189925
- Title: Interpreting Deep Learning Models with Marginal Attribution by
Conditioning on Quantiles
- Title(参考訳): 分位子条件づけによる限界帰属を伴う深層学習モデルの解釈
- Authors: M. Merz, R. Richman, T. Tsanakas, M.V. W\"uthrich
- Abstract要約: 本稿では, 分位器のコンディショニングによる限界帰属と呼ぶ, グローバル勾配に基づくモデル非依存手法を提案する。
我々のアプローチは、個々の特徴(入力)に対する予測(出力)の限界属性の分析に基づく。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A vastly growing literature on explaining deep learning models has emerged.
This paper contributes to that literature by introducing a global
gradient-based model-agnostic method, which we call Marginal Attribution by
Conditioning on Quantiles (MACQ). Our approach is based on analyzing the
marginal attribution of predictions (outputs) to individual features (inputs).
Specificalllly, we consider variable importance by mixing (global) output
levels and, thus, explain how features marginally contribute across different
regions of the prediction space. Hence, MACQ can be seen as a marginal
attribution counterpart to approaches such as accumulated local effects (ALE),
which study the sensitivities of outputs by perturbing inputs. Furthermore,
MACQ allows us to separate marginal attribution of individual features from
interaction effect, and visually illustrate the 3-way relationship between
marginal attribution, output level, and feature value.
- Abstract(参考訳): ディープラーニングモデルの説明に関する文献が大幅に増えている。
本稿では,大域的勾配に基づくモデル非依存手法を導入し,量子論の条件付けによるMarginal Attribution(MACQ)と呼ぶ。
我々のアプローチは、個々の特徴(入力)に対する予測(出力)の限界帰属を分析することに基づいている。
具体的には,各領域における特徴の差分が,各領域の差分にどのように寄与するかを,(グローバル)出力レベルを混合することにより,変数の重要性を考察する。
したがって、MACQは、入力を摂動することで出力の感度を研究する蓄積局所効果(ALE)のようなアプローチに匹敵する限界属性と見なすことができる。
さらに、MACQは、個々の特徴の限界属性と相互作用効果を分離し、限界属性、出力レベル、特徴値の3方向の関係を視覚的に表す。
関連論文リスト
- Graph-based Unsupervised Disentangled Representation Learning via Multimodal Large Language Models [42.17166746027585]
複素データ内の因子化属性とその相互関係を学習するための双方向重み付きグラフベースフレームワークを提案する。
具体的には、グラフの初期ノードとして要素を抽出する$beta$-VAEベースのモジュールを提案する。
これらの相補的加群を統合することで、我々は細粒度、実用性、教師なしの絡み合いをうまく達成できる。
論文 参考訳(メタデータ) (2024-07-26T15:32:21Z) - Chain-of-Thought Prompting for Demographic Inference with Large Multimodal Models [58.58594658683919]
大規模マルチモーダルモデル (LMM) は、様々な研究課題において変換可能性を示している。
以上の結果から,LMMはゼロショット学習,解釈可能性,未修正入力の処理に長所があることが示唆された。
本稿では,目標外予測問題を効果的に緩和するChain-of-Thought拡張プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T16:26:56Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - On the Impact of Output Perturbation on Fairness in Binary Linear
Classification [0.3916094706589679]
二元線形分類において、差分プライバシーが個人と集団の公平性の両方とどのように相互作用するかを考察する。
我々は、摂動モデルが達成できる個人とグループフェアネスのレベルに基づいて、高い確率境界を導出する。
論文 参考訳(メタデータ) (2024-02-05T13:50:08Z) - Maturity-Aware Active Learning for Semantic Segmentation with
Hierarchically-Adaptive Sample Assessment [18.65352271757926]
Maturity-Aware Distribution Breakdown-based Active Learning (MADBAL)は、異なる「サンプル」の定義を共同で考慮したAL手法である。
MADBALは初期のALステージでも大幅なパフォーマンス向上を実現しているため、トレーニングの負担を大幅に削減できる。
実験で検証したように,都市景観とPASCALVOCデータセットの最先端手法よりも優れています。
論文 参考訳(メタデータ) (2023-08-28T21:13:04Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Bayesian Model Selection, the Marginal Likelihood, and Generalization [49.19092837058752]
まず,学習制約と仮説テストの限界的可能性の魅力について再考する。
ニューラルアーキテクチャ探索において,限界確率が一般化と負の相関関係を持つことが示唆された。
また, 限界確率とPAC-Bayes境界との接続を再検討し, モデル選択における限界確率の欠点をさらに解明するためにこの接続を利用する。
論文 参考訳(メタデータ) (2022-02-23T18:38:16Z) - Accuracy on the Line: On the Strong Correlation Between
Out-of-Distribution and In-Distribution Generalization [89.73665256847858]
分布外性能は,広範囲なモデルと分布シフトに対する分布内性能と強く相関していることを示す。
具体的には,CIFAR-10 と ImageNet の変種に対する分布内分布と分布外分布性能の強い相関関係を示す。
また,CIFAR-10-Cと組織分類データセットCamelyon17-WILDSの合成分布の変化など,相関が弱いケースについても検討した。
論文 参考訳(メタデータ) (2021-07-09T19:48:23Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。