論文の概要: Trade-off Between Efficiency and Consistency for Removal-based
Explanations
- arxiv url: http://arxiv.org/abs/2210.17426v3
- Date: Fri, 20 Oct 2023 14:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 14:18:13.454526
- Title: Trade-off Between Efficiency and Consistency for Removal-based
Explanations
- Title(参考訳): 削除に基づく説明の効率性と一貫性のトレードオフ
- Authors: Yifan Zhang, Haowei He, Zhiquan Tan, Yang Yuan
- Abstract要約: 我々は、解釈可能性、効率性、一貫性が同時に保持できないと仮定するインポッシブル・トリニティ定理を確立する。
理想的な説明の達成がいまだ解明されていないことを認識し、非効率性と矛盾を測る指標として解釈誤差の利用を提案する。
実験の結果,提案手法は解釈誤差を最大31.8倍に低減できることがわかった。
- 参考スコア(独自算出の注目度): 12.338207007436566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current landscape of explanation methodologies, most predominant
approaches, such as SHAP and LIME, employ removal-based techniques to evaluate
the impact of individual features by simulating various scenarios with specific
features omitted. Nonetheless, these methods primarily emphasize efficiency in
the original context, often resulting in general inconsistencies. In this
paper, we demonstrate that such inconsistency is an inherent aspect of these
approaches by establishing the Impossible Trinity Theorem, which posits that
interpretability, efficiency, and consistency cannot hold simultaneously.
Recognizing that the attainment of an ideal explanation remains elusive, we
propose the utilization of interpretation error as a metric to gauge
inefficiencies and inconsistencies. To this end, we present two novel
algorithms founded on the standard polynomial basis, aimed at minimizing
interpretation error. Our empirical findings indicate that the proposed methods
achieve a substantial reduction in interpretation error, up to 31.8 times lower
when compared to alternative techniques. Code is available at
https://github.com/trusty-ai/efficient-consistent-explanations.
- Abstract(参考訳): 現在の説明方法論のランドスケープでは、shapやlimeといった主要なアプローチは、特定の特徴を省略した様々なシナリオをシミュレートして、個々の特徴の影響を評価するために削除ベースの手法を採用している。
しかしながら、これらの手法は主に元の文脈における効率性を強調し、しばしば一般的な矛盾をもたらす。
本稿では,このような不整合性は,解釈可能性,効率,一貫性が同時に保持できないことを仮定する不合理三元論を確立することによって,これらのアプローチの本質的な側面であることを示す。
理想的な説明の達成がいまだ解明されていないことを認識し、非効率性と矛盾を測る指標として解釈誤差の利用を提案する。
そこで本研究では,解釈誤差の最小化を目的とした2つの新しいアルゴリズムを提案する。
実験の結果,提案手法は解釈誤差を最大31.8倍に低減できることがわかった。
コードはhttps://github.com/trusty-ai/ efficiency- consistent-explanationsで入手できる。
関連論文リスト
- Exogenous Matching: Learning Good Proposals for Tractable Counterfactual Estimation [1.9662978733004601]
本稿では, 抽出可能かつ効率的な対実表現推定のための重要サンプリング手法を提案する。
対物推定器の共通上限を最小化することにより、分散最小化問題を条件分布学習問題に変換する。
構造因果モデル (Structure Causal Models, SCM) の様々なタイプと設定による実験による理論的結果の検証と, 対実推定タスクにおける性能の実証を行った。
論文 参考訳(メタデータ) (2024-10-17T03:08:28Z) - Algorithmic Recourse with Missing Values [11.401006371457436]
本稿では,欠落した値の存在下でも機能するアルゴリズム・リコース(AR)の新たな枠組みを提案する。
ARは、分類器によって与えられる望ましくない予測結果を変更するためのリコースアクションを提供することを目的としている。
実験の結果, 基準値に比較して, 欠落した値の存在下での本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-28T03:22:48Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Self-attention fusion for audiovisual emotion recognition with
incomplete data [103.70855797025689]
視覚的感情認識を応用したマルチモーダルデータ解析の問題点を考察する。
本稿では、生データから学習可能なアーキテクチャを提案し、その3つの変種を異なるモダリティ融合機構で記述する。
論文 参考訳(メタデータ) (2022-01-26T18:04:29Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - On Sample Based Explanation Methods for NLP:Efficiency, Faithfulness,
and Semantic Evaluation [23.72825603188359]
我々は、任意のテキストシーケンスを説明単位として許容することにより、説明の解釈可能性を向上させることができる。
本研究では,人間による説明の判断に適合する意味に基づく評価指標を提案する。
論文 参考訳(メタデータ) (2021-06-09T00:49:56Z) - On Guaranteed Optimal Robust Explanations for NLP Models [16.358394218953833]
我々は,マシーン学習のための推論に基づく説明を構築し,ニューラルネットワークモデルのための局所的説明を計算する方法を開発した。
我々は,それぞれ暗黙の打撃集合と最大普遍部分集合に基づく2つの解アルゴリズムを提案する。
SST、Twitter、IMDBデータセットから、広く使用されている3つの感情分析タスクと最大100ワードのテキストに基づいてフレームワークを評価します。
論文 参考訳(メタデータ) (2021-05-08T08:44:48Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。