論文の概要: Towards Understanding the Influence of Training Samples on Explanations
- arxiv url: http://arxiv.org/abs/2406.03012v2
- Date: Tue, 25 Mar 2025 12:17:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:51:38.476425
- Title: Towards Understanding the Influence of Training Samples on Explanations
- Title(参考訳): 研修サンプルが説明に及ぼす影響の理解に向けて
- Authors: André Artelt, Barbara Hammer,
- Abstract要約: 説明可能なAI(XAI)は、AIシステムの意思決定を分析するために広く使われている。
予期せぬ説明が発生した場合、ユーザーはそれらを形作るトレーニングデータプロパティを理解したいかもしれない。
データ評価の領域では、データサンプルが与えられたモデルに与える影響を推定する最初のアプローチが提案されている。
- 参考スコア(独自算出の注目度): 5.695152528716705
- License:
- Abstract: Explainable AI (XAI) is widely used to analyze AI systems' decision-making, such as providing counterfactual explanations for recourse. When unexpected explanations occur, users may want to understand the training data properties shaping them. Under the umbrella of data valuation, first approaches have been proposed that estimate the influence of data samples on a given model. This process not only helps determine the data's value, but also offers insights into how individual, potentially noisy, or misleading examples affect a model, which is crucial for interpretable AI. In this work, we apply the concept of data valuation to the significant area of model evaluations, focusing on how individual training samples impact a model's internal reasoning rather than the predictive performance only. Hence, we introduce the novel problem of identifying training samples shaping a given explanation or related quantity, and investigate the particular case of the cost of computational recourse. We propose an algorithm to identify such influential samples and conduct extensive empirical evaluations in two case studies.
- Abstract(参考訳): 説明可能なAI(XAI)は、AIシステムの意思決定を分析するために広く用いられている。
予期せぬ説明が発生した場合、ユーザーはそれらを形作るトレーニングデータプロパティを理解したいかもしれない。
データ評価の領域では、データサンプルが与えられたモデルに与える影響を推定する最初のアプローチが提案されている。
このプロセスは、データの価値を決定するだけでなく、個々の、うるさい、誤解を招く可能性のある例がモデルにどのように影響するかについての洞察を提供する。
本研究では,データ評価の概念をモデル評価の重要な領域に適用し,個々のトレーニングサンプルがモデルの内部推論にどのように影響するかに着目した。
そこで,本稿では,与えられた説明や関連量を形成するトレーニングサンプルを識別する新たな問題を導入し,計算リコースのコストの特定のケースについて検討する。
そこで本稿では,そのような影響のあるサンプルを同定し,2つのケーススタディにおいて広範な実証評価を行うアルゴリズムを提案する。
関連論文リスト
- Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - From Model Explanation to Data Misinterpretation: Uncovering the Pitfalls of Post Hoc Explainers in Business Research [3.7209396288545338]
ビジネス研究では、データに関する推論にポストホックな説明が使われる傾向が増えている。
この論文の最終的な目標は、機械学習モデルのポストホックな説明を、潜在的に誤った洞察とデータの理解に翻訳しないように、ビジネス研究者に警告することである。
論文 参考訳(メタデータ) (2024-08-30T03:22:35Z) - Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Example-based Explanations with Adversarial Attacks for Respiratory
Sound Analysis [15.983890739091159]
我々は、代表データ(プロトタイプ)と外れ値(批判)の両方を選択する統一的な例に基づく説明法を開発した。
特に、反復的高速勾配符号法を用いて、データインスタンスの説明スペクトルを生成するために、敵攻撃の新たな応用を提案する。
論文 参考訳(メタデータ) (2022-03-30T08:28:48Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Paired Examples as Indirect Supervision in Latent Decision Models [109.76417071249945]
我々は、ペア化された例を活用して、潜在的な決定を学習するためのより強力な手がかりを提供する方法を紹介します。
DROPデータセット上のニューラルネットワークを用いた合成質問応答の改善に本手法を適用した。
論文 参考訳(メタデータ) (2021-04-05T03:58:30Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。