論文の概要: Convex optimization for actionable \& plausible counterfactual
explanations
- arxiv url: http://arxiv.org/abs/2105.07630v1
- Date: Mon, 17 May 2021 06:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 15:04:51.217030
- Title: Convex optimization for actionable \& plausible counterfactual
explanations
- Title(参考訳): 作用可能な \ & plausible の反実的説明に対する凸最適化
- Authors: Andr\'e Artelt and Barbara Hammer
- Abstract要約: 透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
- 参考スコア(独自算出の注目度): 9.104557591459283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparency is an essential requirement of machine learning based decision
making systems that are deployed in real world. Often, transparency of a given
system is achieved by providing explanations of the behavior and predictions of
the given system. Counterfactual explanations are a prominent instance of
particular intuitive explanations of decision making systems. While a lot of
different methods for computing counterfactual explanations exist, only very
few work (apart from work from the causality domain) considers feature
dependencies as well as plausibility which might limit the set of possible
counterfactual explanations.
In this work we enhance our previous work on convex modeling for computing
counterfactual explanations by a mechanism for ensuring actionability and
plausibility of the resulting counterfactual explanations.
- Abstract(参考訳): 透明性は、現実世界にデプロイされる機械学習ベースの意思決定システムにとって必須の要件である。
しばしば、あるシステムの透明性は、与えられたシステムの振る舞いと予測の説明を提供することによって達成される。
事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
反事実的説明を計算するための多くの異なる方法が存在するが、機能依存と、考えられる反事実的説明のセットを制限する可能性について考慮している作業はごくわずかである(因果性ドメインの仕事を除く)。
本研究は, 対物的説明に対する凸モデルに関する従来の研究を, 対物的説明の作用性と妥当性を保証するメカニズムにより強化する。
関連論文リスト
- On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.752418052725126]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Computing Rule-Based Explanations by Leveraging Counterfactuals [17.613690272861053]
ルールベースの説明は計算に非効率であり、既存のシステムは適切なパフォーマンスを達成するために品質を犠牲にする。
本稿では,異なるタイプの説明法を用いて,ルールに基づく説明を計算するための新しい手法を提案する。
我々は、ルールベースと反ファクトベースの説明が相互に二重であることを示すデュナリティ定理を証明し、この観察を用いてルールベースの説明を計算するための効率的なアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-10-31T05:20:41Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Robustness and Usefulness in AI Explanation Methods [0.0]
この研究は、LIME、SmoothGrad、SHAPの3つの一般的な説明手法を要約し、比較し、対比する。
我々は,これらの手法の評価を行った:頑健さ,サンプルの複雑さと安定性,理解可能性,提供された説明がユーザの期待と一致しているという意味で。
この研究は、現在の説明方法が不十分である、と結論付けている。
論文 参考訳(メタデータ) (2022-03-07T21:30:48Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - Convex Density Constraints for Computing Plausible Counterfactual
Explanations [8.132423340684568]
因果的説明は、あるモデルの特定の決定を説明する最も一般的な手法の1つであると考えられている。
我々は最近の研究に基づいて、妥当な対実的説明の形式的定義を提案し、研究する。
特に, 実測値の妥当性と妥当性を高めるために, 密度推定器の応用について検討する。
論文 参考訳(メタデータ) (2020-02-12T09:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。