論文の概要: Eliminating The Impossible, Whatever Remains Must Be True
- arxiv url: http://arxiv.org/abs/2206.09551v1
- Date: Mon, 20 Jun 2022 03:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:52:08.122315
- Title: Eliminating The Impossible, Whatever Remains Must Be True
- Title(参考訳): ありえないものを排除するには、真実でなければならない
- Authors: Jinqiang Yu, Alexey Ignatiev, Peter J. Stuckey, Nina Narodytska, Joao
Marques-Silva
- Abstract要約: より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
- 参考スコア(独自算出の注目度): 46.39428193548396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of AI methods to make predictions and decisions has led to a
pressing need for more explainable artificial intelligence (XAI) methods. One
common approach for XAI is to produce a post-hoc explanation, explaining why a
black box ML model made a certain prediction. Formal approaches to post-hoc
explanations provide succinct reasons for why a prediction was made, as well as
why not another prediction was made. But these approaches assume that features
are independent and uniformly distributed. While this means that "why"
explanations are correct, they may be longer than required. It also means the
"why not" explanations may be suspect as the counterexamples they rely on may
not be meaningful. In this paper, we show how one can apply background
knowledge to give more succinct "why" formal explanations, that are presumably
easier to interpret by humans, and give more accurate "why not" explanations.
Furthermore, we also show how to use existing rule induction techniques to
efficiently extract background information from a dataset, and also how to
report which background information was used to make an explanation, allowing a
human to examine it if they doubt the correctness of the explanation.
- Abstract(参考訳): 予測と決定を行うAIメソッドの台頭により、より説明可能な人工知能(XAI)メソッドの必要性が高まっている。
XAIの一般的なアプローチの1つは、ブラックボックスMLモデルが特定の予測を行った理由を説明する、ポストホックな説明を作ることである。
ポストホックな説明に対する形式的なアプローチは、予測がなぜ行われたのかという簡潔な理由と、他の予測ができなかった理由を提供する。
しかし、これらのアプローチでは、機能は独立であり、均一に分散していると仮定する。
これは「なぜ」説明が正しいのかという意味であるが、必要以上に長い場合もある。
また、「なぜそうでないのか」という説明は、彼らが依存する反例が意味を持たないかもしれないとして疑う可能性がある。
本稿では,より簡潔な「なぜ」な説明を行うために背景知識を適用し,人間による解釈が容易で,より正確な「なぜ」な説明を与える方法について述べる。
さらに,既存の規則帰納法を用いて,データセットから背景情報を効率的に抽出する方法と,どのような背景情報を用いて説明を行うのかを報告し,説明の正確性に疑問が持たれている場合,人間がそれを検証できるようにする方法を示す。
関連論文リスト
- Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - On Relating 'Why?' and 'Why Not?' Explanations [28.87208020322193]
機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
最近の研究は「なぜそうでないのか」という説明を調査している。
質問だ
本稿では,「なぜ」の厳密な関係を確立する。
と「なぜないのですか?
説明だ
論文 参考訳(メタデータ) (2020-12-21T01:07:13Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Adequate and fair explanations [12.33259114006129]
我々は厳密な論理的基礎を持つ第2の正確な説明に焦点をあてる。
反事実的説明では、完全な説明を提供するために必要な仮定の多くは暗黙的に残されている。
局所的な部分的な説明から完全な局所的な説明へと、そしてグローバルな説明へと移行する方法を探求する。
論文 参考訳(メタデータ) (2020-01-21T14:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。