論文の概要: Convex Density Constraints for Computing Plausible Counterfactual
Explanations
- arxiv url: http://arxiv.org/abs/2002.04862v2
- Date: Mon, 3 Aug 2020 08:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 18:43:58.084269
- Title: Convex Density Constraints for Computing Plausible Counterfactual
Explanations
- Title(参考訳): 可算逆説明計算のための凸密度制約
- Authors: Andr\'e Artelt, Barbara Hammer
- Abstract要約: 因果的説明は、あるモデルの特定の決定を説明する最も一般的な手法の1つであると考えられている。
我々は最近の研究に基づいて、妥当な対実的説明の形式的定義を提案し、研究する。
特に, 実測値の妥当性と妥当性を高めるために, 密度推定器の応用について検討する。
- 参考スコア(独自算出の注目度): 8.132423340684568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing deployment of machine learning as well as legal regulations
such as EU's GDPR cause a need for user-friendly explanations of decisions
proposed by machine learning models. Counterfactual explanations are considered
as one of the most popular techniques to explain a specific decision of a
model. While the computation of "arbitrary" counterfactual explanations is well
studied, it is still an open research problem how to efficiently compute
plausible and feasible counterfactual explanations. We build upon recent work
and propose and study a formal definition of plausible counterfactual
explanations. In particular, we investigate how to use density estimators for
enforcing plausibility and feasibility of counterfactual explanations. For the
purpose of efficient computations, we propose convex density constraints that
ensure that the resulting counterfactual is located in a region of the data
space of high density.
- Abstract(参考訳): 機械学習の展開とeuのgdprのような法的規制の増加は、機械学習モデルによって提案された決定をユーザーフレンドリーに説明する必要がある。
反事実的説明は、モデルの特定の決定を説明する最も一般的な手法の1つとみなされる。
任意」対実的説明の計算はよく研究されているが、妥当かつ実現可能な対実的説明を効率的に計算する方法に関するオープンな研究課題である。
我々は最近の研究に基づいて、妥当な対実的説明の形式的定義を提案し、研究する。
特に, 実測値の妥当性と妥当性を高めるために, 密度推定器を用いる方法を検討する。
効率的な計算のために, 結果として生じる反事実が高密度のデータ空間の領域に存在することを保証する凸密度制約を提案する。
関連論文リスト
- From Model Explanation to Data Misinterpretation: Uncovering the Pitfalls of Post Hoc Explainers in Business Research [3.7209396288545338]
ビジネス研究では、データに関する推論にポストホックな説明が使われる傾向が増えている。
この論文の最終的な目標は、機械学習モデルのポストホックな説明を、潜在的に誤った洞察とデータの理解に翻訳しないように、ビジネス研究者に警告することである。
論文 参考訳(メタデータ) (2024-08-30T03:22:35Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - From Robustness to Explainability and Back Again [0.685316573653194]
本稿では,形式的説明可能性のスケーラビリティの限界に対処し,形式的説明性を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは、その代わりに多数のロバストネスクエリに応答して説明を計算し、そのようなクエリの数は、機能数に対して最も線形である。
提案手法の有効性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Consumer-Driven Explanations for Machine Learning Decisions: An
Empirical Study of Robustness [35.520178007455556]
本稿では、TEDと呼ばれる別の消費者主導のアプローチに基づいて、ターゲットラベルとともに、トレーニングデータに説明を提供するよう要求する。
TEDにおけるいくつかの実践的考察について実験を行い,その性能について異なる分類アルゴリズムを用いて検討した。
論文 参考訳(メタデータ) (2020-01-13T18:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。