論文の概要: On Deciding Feature Membership in Explanations of SDD & Related
Classifiers
- arxiv url: http://arxiv.org/abs/2202.07553v1
- Date: Tue, 15 Feb 2022 16:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 18:17:45.321270
- Title: On Deciding Feature Membership in Explanations of SDD & Related
Classifiers
- Title(参考訳): SDDおよび関連分類器の解説における特徴員決定について
- Authors: Xuanxiang Huang, Joao Marques-Silva
- Abstract要約: この論文は、幅広い分類器のクラスに対してSigmaP$に対して、特徴メンバシップ問題(FMP)が難しいことを示している。
本稿では,SDD(Sentential Decision Diagrams)と他の命題言語に代表される分類器の命題符号化を提案する。
- 参考スコア(独自算出の注目度): 0.685316573653194
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: When reasoning about explanations of Machine Learning (ML) classifiers, a
pertinent query is to decide whether some sensitive features can serve for
explaining a given prediction. Recent work showed that the feature membership
problem (FMP) is hard for $\Sigma_2^P$ for a broad class of classifiers. In
contrast, this paper shows that for a number of families of classifiers, FMP is
in NP. Concretely, the paper proves that any classifier for which an
explanation can be computed in polynomial time, then deciding feature
membership in an explanation can be decided with one NP oracle call. The paper
then proposes propositional encodings for classifiers represented with
Sentential Decision Diagrams (SDDs) and for other related propositional
languages. The experimental results confirm the practical efficiency of the
proposed approach.
- Abstract(参考訳): 機械学習(ml)分類器の説明を推論する場合、関連するクエリは、与えられた予測を説明するのに重要な機能があるかどうかを決定することである。
最近の研究は、幅広い分類器のクラスに対して、FMPは$\Sigma_2^P$では難しいことを示した。
これとは対照的に, 分類器群ではFMPがNPであることを示す。
具体的には、説明を多項式時間で計算できる分類器を1つのnp oracleコールで決定できることを実証する。
そこで本論文では,Sentential Decision Diagrams (SDD) で表される分類器の命題エンコーディングと他の命題言語について提案する。
実験の結果,提案手法の実用性が確認された。
関連論文リスト
- Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - Enriching Disentanglement: Definitions to Metrics [97.34033555407403]
分散表現学習は、複雑なデータの変動の複数の要因を分離する難題である。
不整合表現の学習と評価のための様々な指標が提案されているが、これらの指標が真に何を定量化し、どのように比較するかは定かではない。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - PERFEX: Classifier Performance Explanations for Trustworthy AI Systems [0.9668407688201357]
説明は、ユーザに対して予測を実行可能なものにする。
しかし、既存の説明方法は通常、個々の予測についてのみ説明を提供する。
本稿では、PERFEX(Performance Explainer)と呼ばれる、トレーニングベース分類器の品質を説明する手法を提案する。
論文 参考訳(メタデータ) (2022-12-12T17:03:09Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - On Efficiently Explaining Graph-Based Classifiers [16.199563506727316]
本稿では,決定木 (DT) が解釈可能であるだけでなく,DT の 1 つのPI-Explanation を計算するためのリアルタイムアルゴリズムを提案する。
さらに,1つの対照的な説明を計算するためのリアルタイムアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-02T17:55:41Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Efficient Explanations With Relevant Sets [30.296628060841645]
本稿では,$delta$-relevant 集合の実用的限界に対処するための解について検討する。
$delta$-relevant 集合の部分集合の計算は NP であり、NP のオラクルへの多くの呼び出しで解ける。
論文 参考訳(メタデータ) (2021-06-01T14:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。