論文の概要: One Explanation to Rule them All -- Ensemble Consistent Explanations
- arxiv url: http://arxiv.org/abs/2205.08974v1
- Date: Wed, 18 May 2022 14:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 12:58:24.067051
- Title: One Explanation to Rule them All -- Ensemble Consistent Explanations
- Title(参考訳): すべてを統括する一つの説明 --アンサンブル一貫した説明
- Authors: Andr\'e Artelt, Stelios Vrachimis, Demetrios Eliades, Marios
Polycarpou, Barbara Hammer
- Abstract要約: 透明性は、現代のAIベースの意思決定システムの主要な要件である。
一つの説明で局所的な決定の集合を一貫して説明するための新しい概念を提案する。
- 参考スコア(独自算出の注目度): 5.606792370296115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparency is a major requirement of modern AI based decision making
systems deployed in real world. A popular approach for achieving transparency
is by means of explanations. A wide variety of different explanations have been
proposed for single decision making systems. In practice it is often the case
to have a set (i.e. ensemble) of decisions that are used instead of a single
decision only, in particular in complex systems. Unfortunately, explanation
methods for single decision making systems are not easily applicable to
ensembles -- i.e. they would yield an ensemble of individual explanations which
are not necessarily consistent, hence less useful and more difficult to
understand than a single consistent explanation of all observed phenomena. We
propose a novel concept for consistently explaining an ensemble of decisions
locally with a single explanation -- we introduce a formal concept, as well as
a specific implementation using counterfactual explanations.
- Abstract(参考訳): 透明性は、現代のAIベースの意思決定システムの主要な要件である。
透明性を達成するための一般的なアプローチは、説明によるものだ。
単一意思決定システムでは様々な異なる説明が提案されている。
実際には、特に複雑なシステムにおいて、単一の決定のみの代わりに使用される決定の集合(すなわちアンサンブル)を持つことが多い。
Unfortunately, explanation methods for single decision making systems are not easily applicable to ensembles -- i.e. they would yield an ensemble of individual explanations which are not necessarily consistent, hence less useful and more difficult to understand than a single consistent explanation of all observed phenomena. We propose a novel concept for consistently explaining an ensemble of decisions locally with a single explanation -- we introduce a formal concept, as well as a specific implementation using counterfactual explanations.
関連論文リスト
- An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Computing Rule-Based Explanations by Leveraging Counterfactuals [17.613690272861053]
ルールベースの説明は計算に非効率であり、既存のシステムは適切なパフォーマンスを達成するために品質を犠牲にする。
本稿では,異なるタイプの説明法を用いて,ルールに基づく説明を計算するための新しい手法を提案する。
我々は、ルールベースと反ファクトベースの説明が相互に二重であることを示すデュナリティ定理を証明し、この観察を用いてルールベースの説明を計算するための効率的なアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-10-31T05:20:41Z) - Robustness and Usefulness in AI Explanation Methods [0.0]
この研究は、LIME、SmoothGrad、SHAPの3つの一般的な説明手法を要約し、比較し、対比する。
我々は,これらの手法の評価を行った:頑健さ,サンプルの複雑さと安定性,理解可能性,提供された説明がユーザの期待と一致しているという意味で。
この研究は、現在の説明方法が不十分である、と結論付けている。
論文 参考訳(メタデータ) (2022-03-07T21:30:48Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。