論文の概要: Generally-Occurring Model Change for Robust Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2407.11426v1
- Date: Tue, 16 Jul 2024 06:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:22:29.735227
- Title: Generally-Occurring Model Change for Robust Counterfactual Explanations
- Title(参考訳): ロバストな非現実的説明のための一般発生モデル変化
- Authors: Ao Xu, Tieru Wu,
- Abstract要約: モデル変更に対する対実的説明生成アルゴリズムの堅牢性について検討する。
本稿では,まず自然発生モデル変化の概念を一般化する。
また、モデルパラメータ変化のより一般的な概念である、モデル変化の一般発生についても提案する。
- 参考スコア(独自算出の注目度): 1.3121410433987561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing impact of algorithmic decision-making on human lives, the interpretability of models has become a critical issue in machine learning. Counterfactual explanation is an important method in the field of interpretable machine learning, which can not only help users understand why machine learning models make specific decisions, but also help users understand how to change these decisions. Naturally, it is an important task to study the robustness of counterfactual explanation generation algorithms to model changes. Previous literature has proposed the concept of Naturally-Occurring Model Change, which has given us a deeper understanding of robustness to model change. In this paper, we first further generalize the concept of Naturally-Occurring Model Change, proposing a more general concept of model parameter changes, Generally-Occurring Model Change, which has a wider range of applicability. We also prove the corresponding probabilistic guarantees. In addition, we consider a more specific problem, data set perturbation, and give relevant theoretical results by combining optimization theory.
- Abstract(参考訳): アルゴリズムによる意思決定が人間の生活に与える影響の増大に伴い、モデルの解釈可能性は機械学習において重要な問題となっている。
これは、機械学習モデルがなぜ特定の決定を下すのかをユーザーが理解するのに役立つだけでなく、ユーザーがこれらの決定をどう変えるかを理解するのに役立つ。
当然のことながら、変化をモデル化するための反実的説明生成アルゴリズムの堅牢性を研究することは重要な課題である。
これまでの文献では、自然発生モデル変更の概念が提案されており、モデル変更に対する堅牢性についてより深く理解されています。
本稿では, モデルパラメータ変化のより一般的な概念である, 適用範囲の広いモデルパラメータ変化を提唱し, 自然発生モデル変化の概念をさらに一般化する。
また、それに対応する確率的保証も証明する。
さらに、より具体的な問題、データセットの摂動を考察し、最適化理論を組み合わせることで関連する理論的結果を与える。
関連論文リスト
- Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - The Buffer Mechanism for Multi-Step Information Reasoning in Language Models [52.77133661679439]
大きな言語モデルの内部的推論メカニズムを調べることは、よりよいモデルアーキテクチャとトレーニング戦略を設計するのに役立ちます。
本研究では,トランスフォーマーモデルが垂直思考戦略を採用するメカニズムを解明するために,シンボリックデータセットを構築した。
我々は,GPT-2モデルに必要なトレーニング時間を75%削減し,モデルの推論能力を高めるために,ランダムな行列ベースアルゴリズムを提案した。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Inverse Decision Modeling: Learning Interpretable Representations of
Behavior [72.80902932543474]
我々は,逆決定モデルに関する表現的,統一的な視点を開拓する。
これを逆問題(記述モデルとして)の形式化に用います。
この構造が(有界な)有理性の学習(解釈可能な)表現を可能にする方法について説明する。
論文 参考訳(メタデータ) (2023-10-28T05:05:01Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Self-explaining variational posterior distributions for Gaussian Process
models [0.0]
本稿では,変分ガウスプロセセスの概念について紹介する。
提案した自己説明型変分後分布は,対象関数に関する一般的な事前知識と,個々の特徴の寄与に関する事前知識の両方を組み込むことができる。
論文 参考訳(メタデータ) (2021-09-08T15:14:22Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。