論文の概要: On Minimizing the Impact of Dataset Shifts on Actionable Explanations
- arxiv url: http://arxiv.org/abs/2306.06716v1
- Date: Sun, 11 Jun 2023 16:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:06:11.058672
- Title: On Minimizing the Impact of Dataset Shifts on Actionable Explanations
- Title(参考訳): 行動可能な説明に対するデータセットシフトの影響の最小化について
- Authors: Anna P. Meyer, Dan Ley, Suraj Srinivas, Himabindu Lakkaraju
- Abstract要約: 我々は、モデル曲率、トレーニング中の重量減衰パラメータ、およびデータセットシフトの大きさが、説明(不安定性)の程度を決定する重要な要因であることを実証するために厳密な理論的分析を行う。
- 参考スコア(独自算出の注目度): 14.83940426256441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Right to Explanation is an important regulatory principle that allows
individuals to request actionable explanations for algorithmic decisions.
However, several technical challenges arise when providing such actionable
explanations in practice. For instance, models are periodically retrained to
handle dataset shifts. This process may invalidate some of the previously
prescribed explanations, thus rendering them unactionable. But, it is unclear
if and when such invalidations occur, and what factors determine explanation
stability i.e., if an explanation remains unchanged amidst model retraining due
to dataset shifts. In this paper, we address the aforementioned gaps and
provide one of the first theoretical and empirical characterizations of the
factors influencing explanation stability. To this end, we conduct rigorous
theoretical analysis to demonstrate that model curvature, weight decay
parameters while training, and the magnitude of the dataset shift are key
factors that determine the extent of explanation (in)stability. Extensive
experimentation with real-world datasets not only validates our theoretical
results, but also demonstrates that the aforementioned factors dramatically
impact the stability of explanations produced by various state-of-the-art
methods.
- Abstract(参考訳): 説明の権利は、個人がアルゴリズム決定に対して実行可能な説明を要求できる重要な規制原則である。
しかし、そのような実用的な説明を実際に行う際には、いくつかの技術的な課題が生じる。
例えば、モデルは定期的にトレーニングされ、データセットシフトを処理する。
このプロセスは、予め規定された説明の一部を無効にすることで、それらを無効にすることができる。
しかし、そのような無効化がいつ発生し、どの要因が説明の安定性を決定するか、すなわち、データセットシフトによるモデルのリトレーニング中に説明が変わらなければ、不明である。
本稿では、上記のギャップに対処し、説明安定性に影響を及ぼす因子の理論的および実証的な特徴の1つを提供する。
この目的のために, モデル曲率, トレーニング中の重量減衰パラメータ, データセットシフトの大きさが説明の程度を決定する重要な要因であることを示すために, 厳密な理論解析を行った。
実世界のデータセットによる大規模な実験は、我々の理論結果を検証するだけでなく、上記の要因が様々な最先端の手法による説明の安定性に劇的に影響を及ぼすことを示した。
関連論文リスト
- Understanding Disparities in Post Hoc Machine Learning Explanation [2.965442487094603]
従来の研究では、既存のポストホックな説明法は説明の忠実度に相違があることが強調されている(「レース」と「ジェンダー」は敏感な属性である)。
データの性質から生じる格差を説明するための課題を特に評価する。
結果は、モデル説明の相違はデータやモデルの性質にも依存できることを示している。
論文 参考訳(メタデータ) (2024-01-25T22:09:28Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Theoretical and Practical Perspectives on what Influence Functions Do [45.35457212616306]
インフルエンス関数(IF)は、トレーニングデータのレンズを通してモデル予測を説明する技術として見なされている。
近年の実証研究により,既存のIF推定手法は脱落・脱落・抑制効果の低下を予測できることが示された。
ほとんどの仮定はうまく処理できるが、パラメータの発散はIFの予測力に明確な制限を与える。
論文 参考訳(メタデータ) (2023-05-26T14:26:36Z) - Variation-based Cause Effect Identification [5.744133015573047]
本稿では、因果発見のための変分に基づく原因影響同定(VCEI)フレームワークを提案する。
我々の枠組みは、既存の非循環因果関係を前提として、原因とメカニズムの独立(ICM)の原理に依存している。
因果方向では、このような変動が効果発生機構に影響を与えないことが期待されている。
論文 参考訳(メタデータ) (2022-11-22T05:19:12Z) - Explanatory causal effects for model agnostic explanations [27.129579550130423]
機械学習モデルを用いて、特定のインスタンスの予測に対する特徴の寄与を推定する問題について検討する。
課題は、既存の因果効果のほとんどは、既知の因果グラフなしではデータから推定できないことである。
仮説的理想実験に基づいて説明的因果効果を定義する。
論文 参考訳(メタデータ) (2022-06-23T08:25:31Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Rethinking Stability for Attribution-based Explanations [20.215505482157255]
説明の安定性を定量化するためにメトリクスを導入し、いくつかの一般的な説明方法が不安定であることを示す。
特に、入力の変化、モデル表現、または基礎となる予測子の出力に関する出力説明の変化を測定するための新しい相対安定度指標を提案する。
論文 参考訳(メタデータ) (2022-03-14T06:19:27Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。