論文の概要: Understanding Disparities in Post Hoc Machine Learning Explanation
- arxiv url: http://arxiv.org/abs/2401.14539v1
- Date: Thu, 25 Jan 2024 22:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:24:53.502883
- Title: Understanding Disparities in Post Hoc Machine Learning Explanation
- Title(参考訳): ポストホック機械学習における差異の理解
- Authors: Vishwali Mhasawade, Salman Rahman, Zoe Haskell-Craig, Rumi Chunara
- Abstract要約: 従来の研究では、既存のポストホックな説明法は説明の忠実度に相違があることが強調されている(「レース」と「ジェンダー」は敏感な属性である)。
データの性質から生じる格差を説明するための課題を特に評価する。
結果は、モデル説明の相違はデータやモデルの性質にも依存できることを示している。
- 参考スコア(独自算出の注目度): 2.965442487094603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work has highlighted that existing post-hoc explanation methods
exhibit disparities in explanation fidelity (across 'race' and 'gender' as
sensitive attributes), and while a large body of work focuses on mitigating
these issues at the explanation metric level, the role of the data generating
process and black box model in relation to explanation disparities remains
largely unexplored. Accordingly, through both simulations as well as
experiments on a real-world dataset, we specifically assess challenges to
explanation disparities that originate from properties of the data: limited
sample size, covariate shift, concept shift, omitted variable bias, and
challenges based on model properties: inclusion of the sensitive attribute and
appropriate functional form. Through controlled simulation analyses, our study
demonstrates that increased covariate shift, concept shift, and omission of
covariates increase explanation disparities, with the effect pronounced higher
for neural network models that are better able to capture the underlying
functional form in comparison to linear models. We also observe consistent
findings regarding the effect of concept shift and omitted variable bias on
explanation disparities in the Adult income dataset. Overall, results indicate
that disparities in model explanations can also depend on data and model
properties. Based on this systematic investigation, we provide recommendations
for the design of explanation methods that mitigate undesirable disparities.
- Abstract(参考訳): 従来の研究は、既存のポストホックな説明手法では説明の不一致(「レース」と「ジェンダー」を区別する属性)が説明の不一致を示しており、多くの研究が説明基準レベルでこれらの問題を緩和することに重点を置いている一方で、説明の不一致に関連するデータ生成プロセスとブラックボックスモデルの役割は明らかにされていない。
したがって,実世界のデータセット上でのシミュレーションと実験の両方を通じて,データの性質から生じる差異を説明するための課題を具体的に評価する。サンプルサイズ,共変量シフト,概念シフト,省略された変数バイアス,モデル特性に基づく課題:機密属性と適切な機能形式を含む。
制御されたシミュレーション解析により,共変量シフトの増大,概念シフトの欠如,共変量の欠如が説明の相違を増加させ,線形モデルと比較して基礎となる機能形式を捉えることができるニューラルネットワークモデルに対する効果が高まることを実証した。
また、概念シフトと省略変数バイアスが成人所得データセットの説明格差に与える影響について一貫した知見を観察した。
全体として、モデル説明の相違はデータとモデル特性にも依存することを示している。
この系統的調査に基づいて, 望ましくない相違を緩和する説明手法の設計を推奨する。
関連論文リスト
- From Identifiable Causal Representations to Controllable Counterfactual
Generation: A Survey on Causal Generative Modeling [18.318692567104378]
因果モデル(Causal model)は、分散シフトロバスト性(英語版)、公正性(英語版)、相互運用性(英語版)など、深い生成モデルに有益な性質を提供する。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療における因果生成モデルの基本的な理論、定式化、欠点、データセット、メトリクス、および応用に焦点を当てる。
論文 参考訳(メタデータ) (2023-10-17T05:45:32Z) - Consistent Explanations in the Face of Model Indeterminacy via
Ensembling [12.661530681518899]
この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
論文 参考訳(メタデータ) (2023-06-09T18:45:43Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Are Data-driven Explanations Robust against Out-of-distribution Data? [18.760475318852375]
エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T02:02:08Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Towards Comparative Physical Interpretation of Spatial Variability Aware
Neural Networks: A Summary of Results [0.7297229770329212]
空間変数認識ニューラルネットワーク(SVANN)が与えられた場合、その目標は、比較物理的解釈のための数学的(または計算的)モデルを調べることである。
本研究では,地理的に異質な特徴に基づく新しい比較手法を用いて,SVANNの物理的解釈について検討する。
論文 参考訳(メタデータ) (2021-10-29T15:40:42Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。