論文の概要: Double Trouble: How to not explain a text classifier's decisions using
counterfactuals synthesized by masked language models?
- arxiv url: http://arxiv.org/abs/2110.11929v1
- Date: Fri, 22 Oct 2021 17:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 13:55:40.425661
- Title: Double Trouble: How to not explain a text classifier's decisions using
counterfactuals synthesized by masked language models?
- Title(参考訳): 二重問題: マスキング言語モデルで合成された反事実を用いたテキスト分類器の決定をどう説明しないか?
- Authors: Thang M. Pham, Trung Bui, Long Mai, Anh Nguyen
- Abstract要約: 多くの説明法の背後にある根底にある原則は、入力特徴が帰属として削除される前と後の間の予測差を取ることである。
IM(Input Marginalization)と呼ばれる最近の手法では、BERTを使用してトークンを置換し、より妥当な偽造物を生成する。
しかし、5つの指標と3つのデータセットを用いた厳密な評価では、IMの説明は、単に単語を削除することに由来するものよりも、一貫してバイアスがあり、正確で、信頼性が低いことが分かりました。
- 参考スコア(独自算出の注目度): 34.18339528128342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining how important each input feature is to a classifier's decision is
critical in high-stake applications. An underlying principle behind dozens of
explanation methods is to take the prediction difference between
before-and-after an input feature (here, a token) is removed as its attribution
- the individual treatment effect in causal inference. A recent method called
Input Marginalization (IM) (Kim et al., 2020) uses BERT to replace a token -
i.e. simulating the do(.) operator - yielding more plausible counterfactuals.
However, our rigorous evaluation using five metrics and on three datasets found
IM explanations to be consistently more biased, less accurate, and less
plausible than those derived from simply deleting a word.
- Abstract(参考訳): それぞれの入力機能が分類器の決定にどれほど重要かを説明することは、高いスループットのアプリケーションにおいて重要である。
多くの説明法の背後にある根底にある原則は、入力特徴(ここではトークン)の前後の予測差を、因果推論における個々の治療効果の帰属として取り除くことである。
IM(Kim et al., 2020)と呼ばれる最近の手法では、トークンの代わりにBERTを使用している。
do(.)演算子をシミュレートします。
しかし、5つの指標と3つのデータセットを用いた厳密な評価により、imの説明は、単に単語を削除することに由来するものよりも、一貫して偏り、正確性が低く、妥当でないことがわかった。
関連論文リスト
- A Comparative Analysis of Counterfactual Explanation Methods for Text Classifiers [0.0]
BERTテキスト分類器の逆実説明を生成する5つの方法を評価する。
確立されたホワイトボックス置換ベースのメソッドは、分類器の出力を変更する有効な偽物を生成するのに効果的である。
大規模言語モデル(LLM)に基づく新しい手法は、自然言語および言語学的に妥当なテキスト偽造物を生成するのに優れている。
論文 参考訳(メタデータ) (2024-11-04T22:01:52Z) - Reweighting Strategy based on Synthetic Data Identification for Sentence
Similarity [30.647497555295974]
機械で書かれた文章を識別する分類器を訓練し、機械で書かれた文章の言語的特徴が人間の文章と大きく異なることを観察する。
次に、分類器からの蒸留情報を用いて、信頼性のある文埋め込みモデルを訓練する。
合成データに基づいてトレーニングしたモデルでは,既存のベースラインよりも良く一般化し,性能が向上する。
論文 参考訳(メタデータ) (2022-08-29T05:42:22Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - More Than Words: Towards Better Quality Interpretations of Text
Classifiers [16.66535643383862]
MLモデルの入力インタフェースを考えると、トークンベースの解釈性は便利な第1選択であるが、あらゆる状況において最も効果的ではないことを示す。
1)ランダム化テストにより測定されるほど頑健であり,2)SHAPのような近似に基づく手法を用いた場合の変動性が低く,3)言語的コヒーレンスがより高い水準にある場合の人間には理解できない。
論文 参考訳(メタデータ) (2021-12-23T10:18:50Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Variable Instance-Level Explainability for Text Classification [9.147707153504117]
本論文では,インスタンスレベルでの異なる特徴スコアリング手法を用いて変数長説明を抽出する手法を提案する。
本手法は,従来の固定長および固定長のスコアリング手法と比較して,より忠実な説明を提供する。
論文 参考訳(メタデータ) (2021-04-16T16:53:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。