論文の概要: Generating Likely Counterfactuals Using Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2401.14086v2
- Date: Mon, 27 May 2024 17:17:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 08:04:22.383433
- Title: Generating Likely Counterfactuals Using Sum-Product Networks
- Title(参考訳): Sum-Product Networks を用いた類似物生成
- Authors: Jiri Nemecek, Tomas Pevny, Jakub Marecek,
- Abstract要約: 提案手法では,多くのデシラタを満足する最も可能性の高い説明の探索を混合整数最適化 (MIO) を用いてモデル化できることが示されている。
本プロセスでは,SPN(Sum-Product Network)のMIO定式化を提案し,SPNを用いて逆実数の可能性を評価する。
- 参考スコア(独自算出の注目度): 2.457872341625575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability of decisions made by AI systems is driven by both recent regulation and user demand. These decisions are often explainable only \emph{post hoc}, after the fact. In counterfactual explanations, one may ask what constitutes the best counterfactual explanation. Clearly, multiple criteria must be taken into account, although "distance from the sample" is a key criterion. Recent methods that consider the plausibility of a counterfactual seem to sacrifice this original objective. Here, we present a system that provides high-likelihood explanations that are, at the same time, close and sparse. We show that the search for the most likely explanations satisfying many common desiderata for counterfactual explanations can be modeled using mixed-integer optimization (MIO). In the process, we propose an MIO formulation of a Sum-Product Network (SPN) and use the SPN to estimate the likelihood of a counterfactual, which can be of independent interest.
- Abstract(参考訳): AIシステムによる決定の説明責任は、最近の規制とユーザ要求の両方によって引き起こされる。
これらの決定はしばしば、事実の後に \emph{post hoc} のみを説明することができる。
反事実的説明において、最も優れた反事実的説明を構成するものは何であるかを問うことができる。
明らかに、"サンプルからの距離"は重要な基準であるが、複数の基準を考慮する必要がある。
カウンターファクトの妥当性を考える最近の手法は、この本来の目的を犠牲にしているようだ。
本稿では,密接かつ疎密な高次説明を提供するシステムを提案する。
そこで本研究では,多くのデシデラタを満足する最も可能性の高い説明の探索を混合整数最適化 (MIO) を用いてモデル化できることを述べる。
本プロセスでは,SPN(Sum-Product Network)のMIO定式化を提案し,SPNを用いて,独立利害関係にある可能性のある反事実の可能性を推定する。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - CountARFactuals -- Generating plausible model-agnostic counterfactual explanations with adversarial random forests [9.598670034160763]
ARFは可視性尺度として機能するか、あるいは反現実的な説明を直接生成することができる。
訓練や計算の効率化が容易で、連続データや分類データを自然に扱うことができ、空間性などのデシラタを直接的な方法で統合することができる。
論文 参考訳(メタデータ) (2024-04-04T15:10:13Z) - Explaining Explanations in Probabilistic Logic Programming [0.0]
ほとんどのアプローチでは、システムはブラックボックスと見なされており、適切な説明を生成することは困難である。
確率論的論理プログラミング(PLP)は、知識表現のための論理プログラミングと不確実性をモデル化する確率を組み合わせたパラダイムである。
本稿では,証明に「選択表現」をラベル付けした PLP の新しいクエリ駆動推論機構の定義に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:27:37Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Outlier Explanation via Sum-Product Networks [10.1303427221932]
外見的な説明は、サンプルと通常のデータとを区別する一連の特徴を識別するタスクである。
既存の手法は特徴部分集合の空間におけるビームサーチに基づいている。
Sum-Product Networks (SPNs) に基づく新しい外乱説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-18T07:47:36Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Counterfactual Explanations for Neural Recommenders [10.880181451789266]
神経レコメンダーの非現実的な説明を見つけるための最初の一般的なフレームワークであるACCENTを提案する。
我々はACCENTを使って2つの一般的なニューラルモデルに対する反実的説明を生成する。
論文 参考訳(メタデータ) (2021-05-11T13:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。