論文の概要: More Than Words: Towards Better Quality Interpretations of Text
Classifiers
- arxiv url: http://arxiv.org/abs/2112.12444v1
- Date: Thu, 23 Dec 2021 10:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 14:52:16.517985
- Title: More Than Words: Towards Better Quality Interpretations of Text
Classifiers
- Title(参考訳): 言葉以上の:テキスト分類器の品質向上に向けて
- Authors: Muhammad Bilal Zafar, Philipp Schmidt, Michele Donini, C\'edric
Archambeau, Felix Biessmann, Sanjiv Ranjan Das, Krishnaram Kenthapadi
- Abstract要約: MLモデルの入力インタフェースを考えると、トークンベースの解釈性は便利な第1選択であるが、あらゆる状況において最も効果的ではないことを示す。
1)ランダム化テストにより測定されるほど頑健であり,2)SHAPのような近似に基づく手法を用いた場合の変動性が低く,3)言語的コヒーレンスがより高い水準にある場合の人間には理解できない。
- 参考スコア(独自算出の注目度): 16.66535643383862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The large size and complex decision mechanisms of state-of-the-art text
classifiers make it difficult for humans to understand their predictions,
leading to a potential lack of trust by the users. These issues have led to the
adoption of methods like SHAP and Integrated Gradients to explain
classification decisions by assigning importance scores to input tokens.
However, prior work, using different randomization tests, has shown that
interpretations generated by these methods may not be robust. For instance,
models making the same predictions on the test set may still lead to different
feature importance rankings. In order to address the lack of robustness of
token-based interpretability, we explore explanations at higher semantic levels
like sentences. We use computational metrics and human subject studies to
compare the quality of sentence-based interpretations against token-based ones.
Our experiments show that higher-level feature attributions offer several
advantages: 1) they are more robust as measured by the randomization tests, 2)
they lead to lower variability when using approximation-based methods like
SHAP, and 3) they are more intelligible to humans in situations where the
linguistic coherence resides at a higher granularity level. Based on these
findings, we show that token-based interpretability, while being a convenient
first choice given the input interfaces of the ML models, is not the most
effective one in all situations.
- Abstract(参考訳): 最先端のテキスト分類器の大規模かつ複雑な決定機構は、人間が予測を理解するのを難しくし、ユーザによる信頼の欠如につながる可能性がある。
これらの問題により、SHAPやIntegrated Gradientsといった手法が採用され、重要なスコアを入力トークンに割り当てることで分類決定が説明されるようになった。
しかし、異なるランダム化テストを用いた先行研究は、これらの方法によって生成された解釈は堅牢ではないかもしれないことを示した。
例えば、テストセットで同じ予測を行うモデルでは、機能重要度ランキングが異なる可能性がある。
トークンベースの解釈可能性の堅牢性の欠如に対処するため、文のようなより高度な意味レベルでの説明を探る。
我々は,文に基づく解釈の質とトークンに基づく解釈の質を比較するために,計算指標と人間の主題研究を用いる。
実験の結果,高次特徴属性にはいくつかの利点があることがわかった。
1) ランダム化テストで測定した方が頑健である。
2) SHAPなどの近似に基づく手法を用いる場合, 変動性が低下する。
3) 言語的コヒーレンスがより高い粒度レベルに存在する状況において, ヒトに対してより知性が高い。
これらの結果から,MLモデルの入力インタフェースを考えると,トークンベースの解釈性は便利な第1選択であるが,あらゆる状況において最も効果的ではないことを示す。
関連論文リスト
- CUE: An Uncertainty Interpretation Framework for Text Classifiers Built
on Pre-Trained Language Models [28.750894873827068]
本稿では,PLMモデルに固有の不確かさを解釈することを目的とした,CUEと呼ばれる新しいフレームワークを提案する。
摂動と原文表現の予測不確実性の違いを比較することにより,不確実性の原因となる潜伏次元を同定することができる。
論文 参考訳(メタデータ) (2023-06-06T11:37:46Z) - Pre-trained Embeddings for Entity Resolution: An Experimental Analysis
[Experiment, Analysis & Benchmark] [65.11858854040544]
我々は、17の確立されたベンチマークデータセットに対して、12のポピュラー言語モデルの徹底的な実験分析を行う。
まず、全ての入力エンティティを高密度な埋め込みベクトルに変換するためのベクトル化のオーバーヘッドを評価する。
次に,そのブロッキング性能を調査し,詳細なスケーラビリティ解析を行い,最先端のディープラーニングベースのブロッキング手法と比較する。
第3に、教師なしマッチングと教師なしマッチングの両方に対して、相対的な性能で締めくくります。
論文 参考訳(メタデータ) (2023-04-24T08:53:54Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - Saliency Map Verbalization: Comparing Feature Importance Representations
from Model-free and Instruction-based Methods [6.018950511093273]
サージェンシマップは、重要な入力特徴を特定することによって、ニューラルネットワークの予測を説明することができる。
我々は,サリエンシマップを自然言語に翻訳する未調査課題を定式化する。
本研究では,従来の特徴強調表現と比較した2つの新手法(検索ベースおよび命令ベース言語化)を比較した。
論文 参考訳(メタデータ) (2022-10-13T17:48:15Z) - Perturbations and Subpopulations for Testing Robustness in Token-Based
Argument Unit Recognition [6.502694770864571]
Argument Unit Recognition and Classification は、テキストから引数単位を識別し、それをpro または against として分類することを目的としている。
このタスクのためにシステムを開発する際に必要となる設計上の選択の1つは、分類単位が何かである。
従来の研究では、トークンレベルの微調整言語モデルは、文章を直接訓練するよりも、文章を分類する上でより堅牢な結果をもたらすことが示唆されている。
当初この主張を導いた研究を再現し、トークンベースのシステムが文ベースのシステムと比較して何を学んだかをさらに調査する。
論文 参考訳(メタデータ) (2022-09-29T13:44:28Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Discriminatory Expressions to Produce Interpretable Models in Short
Documents [0.0]
State-of-the-artモデルは、社会的影響のある問題の解決に使用すべきではないブラックボックスである。
本稿では,少ないが有意義な特徴を用いることで,理解度を向上させる機能選択機構を提案する。
論文 参考訳(メタデータ) (2020-11-27T19:00:50Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。