論文の概要: On Relating 'Why?' and 'Why Not?' Explanations
- arxiv url: http://arxiv.org/abs/2012.11067v1
- Date: Mon, 21 Dec 2020 01:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:42:03.728017
- Title: On Relating 'Why?' and 'Why Not?' Explanations
- Title(参考訳): なぜ」の関連について
なぜそうでないのか?
解説
- Authors: Alexey Ignatiev, Nina Narodytska, Nicholas Asher, Joao Marques-Silva
- Abstract要約: 機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
最近の研究は「なぜそうでないのか」という説明を調査している。
質問だ
本稿では,「なぜ」の厳密な関係を確立する。
と「なぜないのですか?
説明だ
- 参考スコア(独自算出の注目度): 28.87208020322193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explanations of Machine Learning (ML) models often address a 'Why?' question.
Such explanations can be related with selecting feature-value pairs which are
sufficient for the prediction. Recent work has investigated explanations that
address a 'Why Not?' question, i.e. finding a change of feature values that
guarantee a change of prediction. Given their goals, these two forms of
explaining predictions of ML models appear to be mostly unrelated. However,
this paper demonstrates otherwise, and establishes a rigorous formal
relationship between 'Why?' and 'Why Not?' explanations. Concretely, the paper
proves that, for any given instance, 'Why?' explanations are minimal hitting
sets of 'Why Not?' explanations and vice-versa. Furthermore, the paper devises
novel algorithms for extracting and enumerating both forms of explanations.
- Abstract(参考訳): 機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
このような説明は、予測に十分な特徴値対を選択することに関連付けられる。
最近の研究は「なぜそうでないのか」の説明を調査している。
質問、i.e.
予測の変化を保証する特徴値の変化を見つけること。
彼らの目標を考えると、これらの2種類のMLモデルの予測は、ほとんど無関係であるように見える。
しかし、この論文はそれ以外を実証し、「なぜ」の厳格な関係を確立している。
なぜそうでないのか?
説明だ
具体的には、この論文は、どんな事例でも「なぜ?」と証明している。
説明は「なぜしないのか」の最小セットである。
説明と逆説。
さらに, 両形態の説明を抽出し, 列挙する新しいアルゴリズムを考案する。
関連論文リスト
- Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。