論文の概要: Axiomatic Explainer Globalness via Optimal Transport
- arxiv url: http://arxiv.org/abs/2411.01126v1
- Date: Sat, 02 Nov 2024 04:01:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:44:09.789474
- Title: Axiomatic Explainer Globalness via Optimal Transport
- Title(参考訳): 最適輸送による公理的説明的グローバル性
- Authors: Davin Hill, Josh Bone, Aria Masoomi, Max Torop, Jennifer Dy,
- Abstract要約: 我々は,説明の分布のより深い理解を可能にする,説明者,グローバル性のための複雑性尺度を定義する。
提案した測度であるワッサーシュタイン・グローバルネスがこれらの基準を満たすことを証明している。
- 参考スコア(独自算出の注目度): 3.2203930850666675
- License:
- Abstract: Explainability methods are often challenging to evaluate and compare. With a multitude of explainers available, practitioners must often compare and select explainers based on quantitative evaluation metrics. One particular differentiator between explainers is the diversity of explanations for a given dataset; i.e. whether all explanations are identical, unique and uniformly distributed, or somewhere between these two extremes. In this work, we define a complexity measure for explainers, globalness, which enables deeper understanding of the distribution of explanations produced by feature attribution and feature selection methods for a given dataset. We establish the axiomatic properties that any such measure should possess and prove that our proposed measure, Wasserstein Globalness, meets these criteria. We validate the utility of Wasserstein Globalness using image, tabular, and synthetic datasets, empirically showing that it both facilitates meaningful comparison between explainers and improves the selection process for explainability methods.
- Abstract(参考訳): 説明可能性の手法は、しばしば評価と比較が難しい。
多数の説明者が利用できるため、実践者は量的評価基準に基づいて説明者を比較して選択する必要がある。
説明者間の差別化要因の1つは、与えられたデータセットに対する説明の多様性である。
本研究では,特徴属性による説明の分布のより深い理解と,与えられたデータセットの特徴選択方法を実現するための,説明者のための複雑性尺度,グローバル性を定義する。
我々は、そのような測度が持つべき公理的性質を確立し、提案した測度であるワッサーシュタイン・グローバルネスがこれらの基準を満たすことを証明する。
我々は、画像、表、合成データセットを用いて、Wasserstein Globalnessの有効性を検証し、説明者間の有意義な比較を促進し、説明可能性の方法の選択プロセスを改善することを実証的に示す。
関連論文リスト
- BEE: Metric-Adapted Explanations via Baseline Exploration-Exploitation [10.15605247436119]
説明可能性研究における2つの顕著な課題は、1)説明の微妙な評価、2)行方不明情報のモデル化である。
本稿では,BEE (Baseline Exploration-Exploitation) を提案する。
BEEは包括的な説明地図を生成し、最も優れた説明地図の選択を容易にする。
論文 参考訳(メタデータ) (2024-12-23T12:19:03Z) - Discrete Subgraph Sampling for Interpretable Graph based Visual Question Answering [27.193336817953142]
我々は,個別サブセットサンプリング手法をグラフベースの視覚的質問応答システムに統合する。
本手法は,解釈可能性と解答精度のトレードオフを効果的に緩和することを示す。
また、生成されたサブグラフの解釈可能性を評価するために、人間の評価を行う。
論文 参考訳(メタデータ) (2024-12-11T10:18:37Z) - Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Extracting Interpretable Local and Global Representations from Attention
on Time Series [0.135975510645475]
本稿では,局所的抽象化とグローバル表現を併用した2つのトランスフォーマーアテンションに基づく解釈可能性手法を提案する。
ローカルコンテキストとグローバルコンテキストを区別し、一般的な解釈オプションの両方に包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-09-16T00:51:49Z) - Enriching Disentanglement: From Logical Definitions to Quantitative Metrics [59.12308034729482]
複雑なデータにおける説明的要素を遠ざけることは、データ効率の表現学習にとって有望なアプローチである。
論理的定義と量的指標の関連性を確立し, 理論的に根ざした絡み合いの指標を導出する。
本研究では,非交叉表現の異なる側面を分離することにより,提案手法の有効性を実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。