論文の概要: Generating Likely Counterfactuals Using Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2401.14086v1
- Date: Thu, 25 Jan 2024 11:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:56:39.686556
- Title: Generating Likely Counterfactuals Using Sum-Product Networks
- Title(参考訳): Sum-Product Networks を用いた類似物生成
- Authors: Jiri Nemecek, Tomas Pevny, Jakub Marecek
- Abstract要約: 本稿では,多くのデシダラタを補完する最も可能性の高い説明の探索について述べる。
そこで本研究では,SPN(Sum-Product Network)を提案する。
- 参考スコア(独自算出の注目度): 2.7624021966289596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to user demand and recent regulation (GDPR, AI Act), decisions made by AI
systems need to be explained. These decisions are often explainable only post
hoc, where counterfactual explanations are popular. The question of what
constitutes the best counterfactual explanation must consider multiple aspects,
where "distance from the sample" is the most common. We argue that this
requirement frequently leads to explanations that are unlikely and, therefore,
of limited value. Here, we present a system that provides high-likelihood
explanations. We show that the search for the most likely explanations
satisfying many common desiderata for counterfactual explanations can be
modeled using mixed-integer optimization (MIO). In the process, we propose an
MIO formulation of a Sum-Product Network (SPN) and use the SPN to estimate the
likelihood of a counterfactual, which can be of independent interest. A
numerical comparison against several methods for generating counterfactual
explanations is provided.
- Abstract(参考訳): ユーザの要求と最近の規制(GDPR、AI Act)のため、AIシステムによる決定は説明する必要がある。
これらの決定はしばしば、反実的な説明が一般的であるポストホックでのみ説明できる。
最良の反事実的説明を構成するものは、"サンプルからの距離"が最も一般的である複数の側面を考慮する必要がある。
我々は、この要件がしばしば、ありそうにない、従って、限られた価値の説明につながると論じている。
本稿では,高度な説明を提供するシステムを提案する。
反事実的説明のための多くの共通デシデラタを満たす最も可能性の高い説明の探索は、mixed-integer optimization (mio) を用いてモデル化できることを示す。
本プロセスでは,SPN(Sum-Product Network)のMIO定式化を提案し,SPNを用いて,独立利害関係にある可能性のある反事実の可能性を推定する。
反事実的説明を生成するいくつかの方法に対する数値比較を提供する。
関連論文リスト
- Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Finding Minimum-Cost Explanations for Predictions made by Tree Ensembles [1.2891210250935143]
木アンサンブルによる予測は,最小限であるだけでなく,コスト関数に対しても最小限である。
まず,現在最先端の代替手段のランタイム性能を超越して,説明の正しさを判断できる高効率なオラクルを提案する。
論文 参考訳(メタデータ) (2023-03-16T12:53:45Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - ExaRanker: Explanation-Augmented Neural Ranker [67.4894325619275]
本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
論文 参考訳(メタデータ) (2023-01-25T11:03:04Z) - Outlier Explanation via Sum-Product Networks [10.1303427221932]
外見的な説明は、サンプルと通常のデータとを区別する一連の特徴を識別するタスクである。
既存の手法は特徴部分集合の空間におけるビームサーチに基づいている。
Sum-Product Networks (SPNs) に基づく新しい外乱説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-18T07:47:36Z) - Explaining Preference-driven Schedules: the EXPRES Framework [23.47188079362728]
EXPRESフレームワークを導入し、与えられた最適なスケジュールで優先権が満足できない理由を説明する。
EXPRESフレームワークは、 (i) 混合整数線形プログラミングモデルに基づいて、不満足な嗜好を説明する最高の理由セットを見つける説明生成器と、 (ii) 生成された説明を人間の解釈可能なものに変換する説明器から構成される。
論文 参考訳(メタデータ) (2022-03-16T19:15:21Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Counterfactual Explanations for Neural Recommenders [10.880181451789266]
神経レコメンダーの非現実的な説明を見つけるための最初の一般的なフレームワークであるACCENTを提案する。
我々はACCENTを使って2つの一般的なニューラルモデルに対する反実的説明を生成する。
論文 参考訳(メタデータ) (2021-05-11T13:16:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。