論文の概要: A New Class of Explanations for Classifiers with Non-Binary Features
- arxiv url: http://arxiv.org/abs/2304.14760v2
- Date: Sat, 22 Jul 2023 08:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 23:02:31.695844
- Title: A New Class of Explanations for Classifiers with Non-Binary Features
- Title(参考訳): 非バイナリ特徴を持つ分類器のための新しいクラス説明
- Authors: Chunxi Ji and Adnan Darwiche
- Abstract要約: 分類器による意思決定の分析において,2種類の説明が文献に注目されている。
非バイナリ機能の存在下では,これらの説明が大幅に改善できることが示唆された。
必要かつ十分な理由が、決定の完全な理由の素因および因果関係であることが示されている。
- 参考スコア(独自算出の注目度): 11.358487655918676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two types of explanations have been receiving increased attention in the
literature when analyzing the decisions made by classifiers. The first type
explains why a decision was made and is known as a sufficient reason for the
decision, also an abductive explanation or a PI-explanation. The second type
explains why some other decision was not made and is known as a necessary
reason for the decision, also a contrastive or counterfactual explanation.
These explanations were defined for classifiers with binary, discrete and, in
some cases, continuous features. We show that these explanations can be
significantly improved in the presence of non-binary features, leading to a new
class of explanations that relay more information about decisions and the
underlying classifiers. Necessary and sufficient reasons were also shown to be
the prime implicates and implicants of the complete reason for a decision,
which can be obtained using a quantification operator. We show that our
improved notions of necessary and sufficient reasons are also prime implicates
and implicants but for an improved notion of complete reason obtained by a new
quantification operator that we also define and study.
- Abstract(参考訳): 分類器による意思決定の分析において,2種類の説明が文献に注目されている。
第一のタイプは、なぜ決定が下されたのかを説明し、決定の十分な理由として知られている。
第2のタイプは、なぜ他の決定が行われなかったのかを説明し、決定に必要な理由として知られ、また対照的な、あるいは反事実的な説明でもある。
これらの説明は、バイナリ、離散、場合によっては連続的な特徴を持つ分類器に対して定義された。
これらの説明は,非バイナリ特徴の存在下では著しく改善され,意思決定や下位の分類器に関する情報を伝達する新たな説明のクラスへと導かれる。
必要十分かつ十分な理由はまた、決定の完全な理由の素因と含意であることが示され、それは量化演算子を用いて得られる。
必要かつ十分な理由に関する我々の改善された概念は素因果関係と暗黙関係をも含んでいるが、我々が定義し研究する新しい量化演算子によって得られる完全因果関係の概念の改善が示される。
関連論文リスト
- Delivering Inflated Explanations [17.646704122091087]
説明可能性に関する正式なアプローチは、AIシステムの正式なモデルを構築します。
正式な帰納的説明は、与えられた値を取ると、常に同じ決定を下すような一連の特徴である。
本稿では,特徴の集合である膨らんだ説明と値の集合の各特徴について,その決定が変わらないように定義する。
論文 参考訳(メタデータ) (2023-06-27T07:54:18Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - On the Computation of Necessary and Sufficient Explanations [11.358487655918676]
決定の背後にある完全な理由は、決定が下された理由を特徴付けるブール公式である。
本稿では、決定に必要な理由として、完全な理由の素因を言及する。
出力時間において最短の理由を列挙できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-20T04:39:41Z) - Detection Accuracy for Evaluating Compositional Explanations of Units [5.220940151628734]
このアプローチを使う方法の2つの例は、ネットワーク分割と構成的説明である。
直感的には、論理形式は原子概念よりも情報的であるが、この改善を定量化する方法は明らかではない。
提案手法は,各ユニットが割り当てた説明文の検出の一貫性を計測する検出精度の評価指標として用いる。
論文 参考訳(メタデータ) (2021-09-16T08:47:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。