論文の概要: On Minimizing the Impact of Dataset Shifts on Actionable Explanations
- arxiv url: http://arxiv.org/abs/2306.06716v1
- Date: Sun, 11 Jun 2023 16:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:06:11.058672
- Title: On Minimizing the Impact of Dataset Shifts on Actionable Explanations
- Title(参考訳): 行動可能な説明に対するデータセットシフトの影響の最小化について
- Authors: Anna P. Meyer, Dan Ley, Suraj Srinivas, Himabindu Lakkaraju
- Abstract要約: 我々は、モデル曲率、トレーニング中の重量減衰パラメータ、およびデータセットシフトの大きさが、説明(不安定性)の程度を決定する重要な要因であることを実証するために厳密な理論的分析を行う。
- 参考スコア(独自算出の注目度): 14.83940426256441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Right to Explanation is an important regulatory principle that allows
individuals to request actionable explanations for algorithmic decisions.
However, several technical challenges arise when providing such actionable
explanations in practice. For instance, models are periodically retrained to
handle dataset shifts. This process may invalidate some of the previously
prescribed explanations, thus rendering them unactionable. But, it is unclear
if and when such invalidations occur, and what factors determine explanation
stability i.e., if an explanation remains unchanged amidst model retraining due
to dataset shifts. In this paper, we address the aforementioned gaps and
provide one of the first theoretical and empirical characterizations of the
factors influencing explanation stability. To this end, we conduct rigorous
theoretical analysis to demonstrate that model curvature, weight decay
parameters while training, and the magnitude of the dataset shift are key
factors that determine the extent of explanation (in)stability. Extensive
experimentation with real-world datasets not only validates our theoretical
results, but also demonstrates that the aforementioned factors dramatically
impact the stability of explanations produced by various state-of-the-art
methods.
- Abstract(参考訳): 説明の権利は、個人がアルゴリズム決定に対して実行可能な説明を要求できる重要な規制原則である。
しかし、そのような実用的な説明を実際に行う際には、いくつかの技術的な課題が生じる。
例えば、モデルは定期的にトレーニングされ、データセットシフトを処理する。
このプロセスは、予め規定された説明の一部を無効にすることで、それらを無効にすることができる。
しかし、そのような無効化がいつ発生し、どの要因が説明の安定性を決定するか、すなわち、データセットシフトによるモデルのリトレーニング中に説明が変わらなければ、不明である。
本稿では、上記のギャップに対処し、説明安定性に影響を及ぼす因子の理論的および実証的な特徴の1つを提供する。
この目的のために, モデル曲率, トレーニング中の重量減衰パラメータ, データセットシフトの大きさが説明の程度を決定する重要な要因であることを示すために, 厳密な理論解析を行った。
実世界のデータセットによる大規模な実験は、我々の理論結果を検証するだけでなく、上記の要因が様々な最先端の手法による説明の安定性に劇的に影響を及ぼすことを示した。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Purely Observational Data [10.482728002416348]
因果解離は、データの背後にある潜在因果関係について学ぶことを目的としている。
近年の進歩は、(単一の)潜伏因子への介入が可能であると仮定して、識別可能性(identifiability)が確立されている。
非線形因果モデルで同定できる潜伏因子の高精度な評価法を提案する。
論文 参考訳(メタデータ) (2024-10-31T04:18:29Z) - Cross-Entropy Is All You Need To Invert the Data Generating Process [29.94396019742267]
経験的現象は、教師付きモデルが線形な方法で変化の解釈可能な要因を学習できることを示唆している。
近年の自己教師型学習の進歩により,データ生成過程を反転させることで潜在構造を復元できることが示されている。
標準分類タスクにおいても,モデルが線形変換までの変動の基底構造因子の表現を学習することが証明された。
論文 参考訳(メタデータ) (2024-10-29T09:03:57Z) - Causal Temporal Representation Learning with Nonstationary Sparse Transition [22.6420431022419]
Causal Temporal Representation Learning (Ctrl) 法は、複雑な非定常時間列の時間的因果ダイナミクスを特定することを目的としている。
この研究は、人間の直感的な理解と整合したスパース遷移の仮定を採用し、理論的な観点から識別可能性の結果を提示している。
本稿では,非定常スパース遷移を用いた因果時間表現学習(CtrlNS)を提案する。
論文 参考訳(メタデータ) (2024-09-05T00:38:27Z) - Sequential Representation Learning via Static-Dynamic Conditional Disentanglement [58.19137637859017]
本稿では,ビデオ中の時間非依存要因と時間変化要因を分離することに着目し,逐次的データ内での自己教師付き不整合表現学習について検討する。
本稿では,静的/動的変数間の因果関係を明示的に考慮し,それらの因子間の通常の独立性仮定を破る新しいモデルを提案する。
実験により、提案手法は、シーンのダイナミックスが内容に影響されるシナリオにおいて、従来の複雑な最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-10T17:04:39Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Understanding Disparities in Post Hoc Machine Learning Explanation [2.965442487094603]
従来の研究では、既存のポストホックな説明法は説明の忠実度に相違があることが強調されている(「レース」と「ジェンダー」は敏感な属性である)。
データの性質から生じる格差を説明するための課題を特に評価する。
結果は、モデル説明の相違はデータやモデルの性質にも依存できることを示している。
論文 参考訳(メタデータ) (2024-01-25T22:09:28Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Rethinking Stability for Attribution-based Explanations [20.215505482157255]
説明の安定性を定量化するためにメトリクスを導入し、いくつかの一般的な説明方法が不安定であることを示す。
特に、入力の変化、モデル表現、または基礎となる予測子の出力に関する出力説明の変化を測定するための新しい相対安定度指標を提案する。
論文 参考訳(メタデータ) (2022-03-14T06:19:27Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。