論文の概要: Order in the Court: Explainable AI Methods Prone to Disagreement
- arxiv url: http://arxiv.org/abs/2105.03287v1
- Date: Fri, 7 May 2021 14:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:28:49.831506
- Title: Order in the Court: Explainable AI Methods Prone to Disagreement
- Title(参考訳): 裁判所命令:説明可能なAIメソッドは診断しにくい
- Authors: Michael Neely, Stefan F. Schouten, Maurits J. R. Bleeker, and Ana
Lucic
- Abstract要約: 自然言語処理では、各入力トークンの独立的なコントリビューションをモデルの決定に向けて定量化する。
これまでの分析では、注意に基づく説明を忠実で妥当な救済の尺度として無効にするか、支持するかのどちらかを模索してきた。
ランク相関は概ね非形式的であり,特徴付加的手法の品質を計測しないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Natural Language Processing, feature-additive explanation methods quantify
the independent contribution of each input token towards a model's decision. By
computing the rank correlation between attention weights and the scores
produced by a small sample of these methods, previous analyses have sought to
either invalidate or support the role of attention-based explanations as a
faithful and plausible measure of salience. To investigate what measures of
rank correlation can reliably conclude, we comprehensively compare
feature-additive methods, including attention-based explanations, across
several neural architectures and tasks. In most cases, we find that none of our
chosen methods agree. Therefore, we argue that rank correlation is largely
uninformative and does not measure the quality of feature-additive methods.
Additionally, the range of conclusions a practitioner may draw from a single
explainability algorithm are limited.
- Abstract(参考訳): 自然言語処理では、各入力トークンの独立的な寄与をモデルの決定に向けて定量化する。
これらの手法の少数のサンプルから得られたスコアと注意重みのランク相関を計算することにより、従来の分析は注意に基づく説明の役割を無効化または支持しようと試みてきた。
ランク相関の尺度を確実に結論付けるために,注意に基づく説明を含む特徴付加的手法を,複数のニューラルアーキテクチャやタスクで総合的に比較した。
ほとんどの場合、選択したメソッドが一致しないことに気付きます。
したがって,ランク相関は非形式的であり,特徴付加法の品質を測るものではない。
さらに、一つの説明可能性アルゴリズムから得られる結論の範囲は限られている。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - An AI Architecture with the Capability to Explain Recognition Results [0.0]
本研究は、説明可能性に対するメトリクスの重要性に焦点をあて、性能向上をもたらす2つの方法に貢献する。
第1の方法は説明不能なフローと説明不能なフローの組み合わせを導入し、意思決定の説明容易性を特徴づける指標を提案する。
第2の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリクスを比較し、新しいメトリックをリードパフォーマーとして振る舞う。
論文 参考訳(メタデータ) (2024-06-13T02:00:13Z) - Predictive Coding beyond Correlations [59.47245250412873]
このようなアルゴリズムのうちの1つは、予測符号化と呼ばれ、因果推論タスクを実行することができるかを示す。
まず、予測符号化の推論過程における簡単な変化が、因果グラフを再利用したり再定義したりすることなく、介入を計算できることを示す。
論文 参考訳(メタデータ) (2023-06-27T13:57:16Z) - Comparing Explanation Methods for Traditional Machine Learning Models
Part 2: Quantifying Model Explainability Faithfulness and Improvements with
Dimensionality Reduction [0.0]
忠実さ」または「忠実さ」とは、割り当てられた特徴の重要性と、その特徴のモデル性能への貢献の対応を指す。
本研究は,関係する特徴を限定することによる説明可能性の向上と,異なる説明可能性手法の相対的忠実性を知ることから,初めて説明可能性の向上を定量化した1つである。
論文 参考訳(メタデータ) (2022-11-18T17:15:59Z) - Quantifying Feature Contributions to Overall Disparity Using Information
Theory [24.61791450920249]
機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
正確な意思決定メカニズムがアクセスできない場合、各特徴の観察された相違点に対する「潜在的」貢献はどのようなものか?
入力に介入できない場合、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」統計的依存を定量化する。
論文 参考訳(メタデータ) (2022-06-16T21:27:22Z) - A Song of (Dis)agreement: Evaluating the Evaluation of Explainable
Artificial Intelligence in Natural Language Processing [7.527234046228323]
我々は、注意に基づく説明のための評価指標としてランク相関を用いるのをやめるべきであると主張している。
注意に基づく説明は,最近の特徴帰属法と強く相関しないことがわかった。
論文 参考訳(メタデータ) (2022-05-09T21:07:39Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Explaining Algorithmic Fairness Through Fairness-Aware Causal Path
Decomposition [37.823248189626014]
本稿では,モデルの相違点の同定問題について検討する。
特徴重要度を学習する既存の解釈方法とは異なり,特徴変数間の因果関係を考察する。
我々のフレームワークはまた、モデルに依存しないものであり、様々な量的格差の尺度に適用できる。
論文 参考訳(メタデータ) (2021-08-11T17:23:47Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。