論文の概要: Adequate and fair explanations
- arxiv url: http://arxiv.org/abs/2001.07578v2
- Date: Sat, 21 Aug 2021 08:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:11:31.096446
- Title: Adequate and fair explanations
- Title(参考訳): 適切かつ公平な説明
- Authors: Nicholas Asher, Soumya Paul, Chris Russell
- Abstract要約: 我々は厳密な論理的基礎を持つ第2の正確な説明に焦点をあてる。
反事実的説明では、完全な説明を提供するために必要な仮定の多くは暗黙的に残されている。
局所的な部分的な説明から完全な局所的な説明へと、そしてグローバルな説明へと移行する方法を探求する。
- 参考スコア(独自算出の注目度): 12.33259114006129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining sophisticated machine-learning based systems is an important issue
at the foundations of AI. Recent efforts have shown various methods for
providing explanations. These approaches can be broadly divided into two
schools: those that provide a local and human interpreatable approximation of a
machine learning algorithm, and logical approaches that exactly characterise
one aspect of the decision. In this paper we focus upon the second school of
exact explanations with a rigorous logical foundation. There is an
epistemological problem with these exact methods. While they can furnish
complete explanations, such explanations may be too complex for humans to
understand or even to write down in human readable form. Interpretability
requires epistemically accessible explanations, explanations humans can grasp.
Yet what is a sufficiently complete epistemically accessible explanation still
needs clarification. We do this here in terms of counterfactuals, following
[Wachter et al., 2017]. With counterfactual explanations, many of the
assumptions needed to provide a complete explanation are left implicit. To do
so, counterfactual explanations exploit the properties of a particular data
point or sample, and as such are also local as well as partial explanations. We
explore how to move from local partial explanations to what we call complete
local explanations and then to global ones. But to preserve accessibility we
argue for the need for partiality. This partiality makes it possible to hide
explicit biases present in the algorithm that may be injurious or unfair.We
investigate how easy it is to uncover these biases in providing complete and
fair explanations by exploiting the structure of the set of counterfactuals
providing a complete local explanation.
- Abstract(参考訳): 高度な機械学習ベースのシステムを説明することは、AIの基礎において重要な問題である。
近年,様々な説明方法が提案されている。
これらのアプローチは、局所的および人間の解釈可能な機械学習アルゴリズムの近似を提供するものと、決定の1つの側面を正確に特徴づける論理的アプローチの2つに大別できる。
本稿では,厳密な論理的基礎を持つ第2学派に焦点をあてる。
これらの厳密な方法には認識論的問題がある。
これらは完全な説明を与えることができるが、そのような説明は人間が理解したり、読みやすい形で書き留めるには複雑すぎるかもしれない。
解釈可能性には理解しやすい説明、人間が把握できる説明が必要である。
しかし、十分に完全に理解可能な説明がまだ明確化する必要がある。
ここでは、[Wachter et al., 2017]に倣って、対策の観点でこれを行う。
反事実的な説明では、完全な説明を提供するために必要な多くの仮定は暗黙的に残される。
そのため、反事実的説明は特定のデータポイントやサンプルの性質を利用しており、部分的説明と同様に局所的でもある。
局所的な部分的な説明から完全な局所的な説明へと、そしてグローバルな説明へと移行する方法を探求する。
しかし、アクセシビリティを維持するために、部分性の必要性を主張します。
この偏りにより、有害または不公平なアルゴリズムに存在する明示的なバイアスを隠蔽することができる。我々は、完全な局所的な説明を提供する反事実の集合の構造を利用して、完全かつ公平な説明を提供することで、これらのバイアスをいかに容易に解明できるかを検討する。
関連論文リスト
- Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Counterfactual Instances Explain Little [7.655239948659383]
機械学習システムの意思決定を説明することは重要である。
益々人気が高まっているアプローチは、実例の説明を提供することである。
本論では, 十分な説明は, 因果方程式と反実例の両方から成り立たなければならないと論じる。
論文 参考訳(メタデータ) (2021-09-20T19:40:25Z) - Semantics and explanation: why counterfactual explanations produce
adversarial examples in deep neural networks [15.102346715690759]
説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
この2つの手順が公式に同値であるならば、反事実的な説明と敵対的な例の間に明らかな説明分割にはどのような意味があるのでしょうか?
このパラドックスは、反事実表現の意味論に重きを置くことで解決する。
論文 参考訳(メタデータ) (2020-12-18T07:04:04Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。