論文の概要: Generating Likely Counterfactuals Using Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2401.14086v1
- Date: Thu, 25 Jan 2024 11:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:56:39.686556
- Title: Generating Likely Counterfactuals Using Sum-Product Networks
- Title(参考訳): Sum-Product Networks を用いた類似物生成
- Authors: Jiri Nemecek, Tomas Pevny, Jakub Marecek
- Abstract要約: 本稿では,多くのデシダラタを補完する最も可能性の高い説明の探索について述べる。
そこで本研究では,SPN(Sum-Product Network)を提案する。
- 参考スコア(独自算出の注目度): 2.7624021966289596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to user demand and recent regulation (GDPR, AI Act), decisions made by AI
systems need to be explained. These decisions are often explainable only post
hoc, where counterfactual explanations are popular. The question of what
constitutes the best counterfactual explanation must consider multiple aspects,
where "distance from the sample" is the most common. We argue that this
requirement frequently leads to explanations that are unlikely and, therefore,
of limited value. Here, we present a system that provides high-likelihood
explanations. We show that the search for the most likely explanations
satisfying many common desiderata for counterfactual explanations can be
modeled using mixed-integer optimization (MIO). In the process, we propose an
MIO formulation of a Sum-Product Network (SPN) and use the SPN to estimate the
likelihood of a counterfactual, which can be of independent interest. A
numerical comparison against several methods for generating counterfactual
explanations is provided.
- Abstract(参考訳): ユーザの要求と最近の規制(GDPR、AI Act)のため、AIシステムによる決定は説明する必要がある。
これらの決定はしばしば、反実的な説明が一般的であるポストホックでのみ説明できる。
最良の反事実的説明を構成するものは、"サンプルからの距離"が最も一般的である複数の側面を考慮する必要がある。
我々は、この要件がしばしば、ありそうにない、従って、限られた価値の説明につながると論じている。
本稿では,高度な説明を提供するシステムを提案する。
反事実的説明のための多くの共通デシデラタを満たす最も可能性の高い説明の探索は、mixed-integer optimization (mio) を用いてモデル化できることを示す。
本プロセスでは,SPN(Sum-Product Network)のMIO定式化を提案し,SPNを用いて,独立利害関係にある可能性のある反事実の可能性を推定する。
反事実的説明を生成するいくつかの方法に対する数値比較を提供する。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - CountARFactuals -- Generating plausible model-agnostic counterfactual explanations with adversarial random forests [9.598670034160763]
ARFは可視性尺度として機能するか、あるいは反現実的な説明を直接生成することができる。
訓練や計算の効率化が容易で、連続データや分類データを自然に扱うことができ、空間性などのデシラタを直接的な方法で統合することができる。
論文 参考訳(メタデータ) (2024-04-04T15:10:13Z) - Explaining Explanations in Probabilistic Logic Programming [0.0]
ほとんどのアプローチでは、システムはブラックボックスと見なされており、適切な説明を生成することは困難である。
確率論的論理プログラミング(PLP)は、知識表現のための論理プログラミングと不確実性をモデル化する確率を組み合わせたパラダイムである。
本稿では,証明に「選択表現」をラベル付けした PLP の新しいクエリ駆動推論機構の定義に基づく説明法を提案する。
論文 参考訳(メタデータ) (2024-01-30T14:27:37Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - MQAG: Multiple-choice Question Answering and Generation for Assessing
Information Consistency in Summarization [55.60306377044225]
最先端の要約システムは高度に流動的な要約を生成することができる。
しかし、これらの要約には、情報源に存在しない事実上の矛盾や情報が含まれている可能性がある。
本稿では,ソース情報と要約情報を直接比較する,標準的な情報理論に基づく代替手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T23:08:25Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Outlier Explanation via Sum-Product Networks [10.1303427221932]
外見的な説明は、サンプルと通常のデータとを区別する一連の特徴を識別するタスクである。
既存の手法は特徴部分集合の空間におけるビームサーチに基づいている。
Sum-Product Networks (SPNs) に基づく新しい外乱説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-18T07:47:36Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Counterfactual Explanations for Neural Recommenders [10.880181451789266]
神経レコメンダーの非現実的な説明を見つけるための最初の一般的なフレームワークであるACCENTを提案する。
我々はACCENTを使って2つの一般的なニューラルモデルに対する反実的説明を生成する。
論文 参考訳(メタデータ) (2021-05-11T13:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。