論文の概要: Towards Faithfully Interpretable NLP Systems: How should we define and
evaluate faithfulness?
- arxiv url: http://arxiv.org/abs/2004.03685v3
- Date: Mon, 27 Apr 2020 20:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:53:40.496671
- Title: Towards Faithfully Interpretable NLP Systems: How should we define and
evaluate faithfulness?
- Title(参考訳): 忠実に解釈可能なNLPシステムに向けて: 忠実性をどのように定義し評価するか?
- Authors: Alon Jacovi, Yoav Goldberg
- Abstract要約: ディープラーニングベースのNLPモデルの普及に伴い、解釈可能なシステムの必要性が高まっている。
解釈可能性とは何か、そして高品質な解釈を構成するものは何か?
我々は、解釈が満たすべき異なる望ましい基準をより明確に区別し、忠実度基準に焦点を合わせることを求めている。
- 参考スコア(独自算出の注目度): 58.13152510843004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing popularity of deep-learning based NLP models, comes a need
for interpretable systems. But what is interpretability, and what constitutes a
high-quality interpretation? In this opinion piece we reflect on the current
state of interpretability evaluation research. We call for more clearly
differentiating between different desired criteria an interpretation should
satisfy, and focus on the faithfulness criteria. We survey the literature with
respect to faithfulness evaluation, and arrange the current approaches around
three assumptions, providing an explicit form to how faithfulness is "defined"
by the community. We provide concrete guidelines on how evaluation of
interpretation methods should and should not be conducted. Finally, we claim
that the current binary definition for faithfulness sets a potentially
unrealistic bar for being considered faithful. We call for discarding the
binary notion of faithfulness in favor of a more graded one, which we believe
will be of greater practical utility.
- Abstract(参考訳): ディープラーニングベースのNLPモデルの普及に伴い、解釈可能なシステムの必要性が高まっている。
しかし、解釈可能性とは何か、そして高品質な解釈を構成するものは何か?
本稿では,解釈可能性評価研究の現状について考察する。
我々は、解釈が満たすべき異なる望ましい基準をより明確に区別し、忠実さの基準に焦点を合わせることを求める。
本研究は,忠実性評価に関する文献を調査し,3つの仮定を中心に現在のアプローチを整理し,コミュニティが忠実性をどのように「定義」しているかを明確に示す。
本稿では,解釈方法の評価方法について,具体的なガイドラインを提供する。
最後に、忠実性のための現在の二項定義は、忠実であると見なされる潜在的な非現実的なバーであると主張する。
我々は、よりグレードの高いものを支持するために、二元的信条の概念を捨てることを呼びかけ、より実用的なものになるだろうと信じている。
関連論文リスト
- Evaluating AI Group Fairness: a Fuzzy Logic Perspective [9.876903282565976]
グループフェアネスを構成するものは、誰が尋ねられるか、社会的文脈に依存するが、定義はしばしば、彼らが課す統計的制約から小さな逸脱を受け入れるために緩和される。
ここでは、基本ファジィ論理の公理系において、群フェアネスの定義を文脈と緩和に関する不確実性から分離する。
一般に議論されている命題は、結果の数学的公式を標準化し、論理と真理値の選択を素人用語に書き起こすことが示される。
論文 参考訳(メタデータ) (2024-06-27T07:11:48Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Towards a Theory of Faithfulness: Faithful Explanations of
Differentiable Classifiers over Continuous Data [17.9926469947157]
特徴帰属法に対する忠実性の形式的定義を2つ提案する。
定性的忠実性は、スコアがモデル上の特徴の真の定性的効果(正対負)を反映することを要求する。
実験により、一般的な帰属法では、データが連続している環境では、忠実な説明が得られないことを実証した。
論文 参考訳(メタデータ) (2022-05-19T15:34:21Z) - Counterfactual Evaluation for Explainable AI [21.055319253405603]
そこで本稿では, 文献的推論の観点から, 説明の忠実さを評価する新しい手法を提案する。
離散シナリオと連続シナリオの両方において適切な反事実を見つけるために2つのアルゴリズムを導入し、取得した反事実を用いて忠実度を測定する。
論文 参考訳(メタデータ) (2021-09-05T01:38:49Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Are Interpretations Fairly Evaluated? A Definition Driven Pipeline for
Post-Hoc Interpretability [54.85658598523915]
我々は,解釈の忠実性を評価する前に,解釈を明確に定義することを提案する。
解釈手法は,ある評価基準の下で異なる性能を示すが,その差は解釈の品質や忠実さから生じるものではない。
論文 参考訳(メタデータ) (2020-09-16T06:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。