論文の概要: A New Class of Explanations for Classifiers with Non-Binary Features
- arxiv url: http://arxiv.org/abs/2304.14760v1
- Date: Fri, 28 Apr 2023 11:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 14:38:40.381999
- Title: A New Class of Explanations for Classifiers with Non-Binary Features
- Title(参考訳): 非バイナリ特徴を持つ分類器のための新しいクラス説明
- Authors: Chunxi Ji and Adnan Darwiche
- Abstract要約: 最近,2種類の説明が,分類器による意思決定の分析において注目されている。
非バイナリ機能の存在下では,これらの説明が大幅に改善できることが示唆された。
必要かつ十分な理由が、決定の完全な理由の素因および因果関係であることが示されている。
- 参考スコア(独自算出の注目度): 11.358487655918676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two types of explanations have received significant attention in the
literature recently when analyzing the decisions made by classifiers. The first
type explains why a decision was made and is known as a sufficient reason for
the decision, also an abductive or PI-explanation. The second type explains why
some other decision was not made and is known as a necessary reason for the
decision, also a contrastive or counterfactual explanation. These explanations
were defined for classifiers with binary, discrete and, in some cases,
continuous features. We show that these explanations can be significantly
improved in the presence of non-binary features, leading to a new class of
explanations that relay more information about decisions and the underlying
classifiers. Necessary and sufficient reasons were also shown to be the prime
implicates and implicants of the complete reason for a decision, which can be
obtained using a quantification operator. We show that our improved notions of
necessary and sufficient reasons are also prime implicates and implicants but
for an improved notion of complete reason obtained by a new quantification
operator that we define and study in this paper.
- Abstract(参考訳): 分類器による決定を分析する際,近年,2種類の説明が文献に注目されている。
最初のタイプは、なぜ決定が下されたのかを説明し、決定の十分な理由として知られています。
第2のタイプは、なぜ他の決定が行われなかったのかを説明し、決定に必要な理由として知られ、また対照的な、あるいは反事実的な説明でもある。
これらの説明は、バイナリ、離散、場合によっては連続的な特徴を持つ分類器に対して定義された。
これらの説明は,非バイナリ特徴の存在下では著しく改善され,意思決定や下位の分類器に関する情報を伝達する新たな説明のクラスへと導かれる。
必要十分かつ十分な理由はまた、決定の完全な理由の素因と含意であることが示され、それは量化演算子を用いて得られる。
本稿で定義・研究する新しい量化演算子によって得られた完全理性の概念を改良した結果,必要十分という概念は素因果関係,含意関係であることが示唆された。
関連論文リスト
- Delivering Inflated Explanations [17.646704122091087]
説明可能性に関する正式なアプローチは、AIシステムの正式なモデルを構築します。
正式な帰納的説明は、与えられた値を取ると、常に同じ決定を下すような一連の特徴である。
本稿では,特徴の集合である膨らんだ説明と値の集合の各特徴について,その決定が変わらないように定義する。
論文 参考訳(メタデータ) (2023-06-27T07:54:18Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - On the Computation of Necessary and Sufficient Explanations [11.358487655918676]
決定の背後にある完全な理由は、決定が下された理由を特徴付けるブール公式である。
本稿では、決定に必要な理由として、完全な理由の素因を言及する。
出力時間において最短の理由を列挙できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-20T04:39:41Z) - Detection Accuracy for Evaluating Compositional Explanations of Units [5.220940151628734]
このアプローチを使う方法の2つの例は、ネットワーク分割と構成的説明である。
直感的には、論理形式は原子概念よりも情報的であるが、この改善を定量化する方法は明らかではない。
提案手法は,各ユニットが割り当てた説明文の検出の一貫性を計測する検出精度の評価指標として用いる。
論文 参考訳(メタデータ) (2021-09-16T08:47:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。