論文の概要: Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI
- arxiv url: http://arxiv.org/abs/2205.12469v1
- Date: Wed, 25 May 2022 03:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-28 17:43:31.787427
- Title: Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI
- Title(参考訳): NLIにおける忠実な説明のための反事実の論理的満足度
- Authors: Suzanna Sia, Anton Belyy, Amjad Almahairi, Madian Khabsa, Luke
Zettlemoyer, Lambert Mathias
- Abstract要約: 本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
- 参考スコア(独自算出の注目度): 60.142926537264714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating an explanation's faithfulness is desired for many reasons such as
trust, interpretability and diagnosing the sources of model's errors. In this
work, which focuses on the NLI task, we introduce the methodology of
Faithfulness-through-Counterfactuals, which first generates a counterfactual
hypothesis based on the logical predicates expressed in the explanation, and
then evaluates if the model's prediction on the counterfactual is consistent
with that expressed logic (i.e. if the new formula is \textit{logically
satisfiable}). In contrast to existing approaches, this does not require any
explanations for training a separate verification model. We first validate the
efficacy of automatic counterfactual hypothesis generation, leveraging on the
few-shot priming paradigm. Next, we show that our proposed metric distinguishes
between human-model agreement and disagreement on new counterfactual input. In
addition, we conduct a sensitivity analysis to validate that our metric is
sensitive to unfaithful explanations.
- Abstract(参考訳): 信頼、解釈可能性、モデルの誤りの原因の診断など、多くの理由から説明の忠実さを評価することが望まれる。
nliタスクに着目した本研究では,まず,説明文で表現された論理述語に基づいて反事実仮説を生成し,その反事実に対するモデルの予測が表現された論理と一致するかどうかを評価する(すなわち,新しい公式が論理学的に満足できるものであれば)。
既存のアプローチとは対照的に、個別の検証モデルをトレーニングするための説明は必要ない。
まず, マイニングパラダイムを活用し, 反事実仮説の自動生成の有効性を検証した。
次に,提案手法は,人間モデル合意と新たな反事実入力に対する不一致を区別することを示す。
さらに、我々の計量が不信な説明に敏感であることを示すために感度分析を行う。
関連論文リスト
- Evaluating the Reliability of Self-Explanations in Large Language Models [2.8894038270224867]
このような自己説明の2つのタイプ – 抽出的, 対実的 – を評価した。
以上の結果から,これらの自己説明は人間の判断と相関するが,モデルの決定過程を完全に的確に従わないことが明らかとなった。
このギャップを橋渡しできるのは, 反実的な説明をLCMに促すことによって, 忠実で, 情報的で, 容易に検証できる結果が得られるからである。
論文 参考訳(メタデータ) (2024-07-19T17:41:08Z) - Faithful and Robust Local Interpretability for Textual Predictions [6.492879435794228]
FRED(Fithful and Robust Explainer for textual Documents)を提案する。
FREDは、モデル予測を説明するための3つの重要な洞察を提供する:(1)除去が予測に最も強い影響を及ぼす文書内の単語の最小セットを識別し、(2)重要スコアを各トークンに割り当て、モデルの出力にその影響を反映し、(3)非現実的な説明を提供する。
論文 参考訳(メタデータ) (2023-10-30T20:27:36Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Interpretable Automatic Fine-grained Inconsistency Detection in Text
Summarization [56.94741578760294]
本研究の目的は, 要約中の事実誤りの微粒化を予測し, 微粒化不整合検出の課題を提案することである。
要約における現実的不整合の検査方法に触発され,解析可能な微粒不整合検出モデルであるFinGrainFactを提案する。
論文 参考訳(メタデータ) (2023-05-23T22:11:47Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Counterfactual Evaluation for Explainable AI [21.055319253405603]
そこで本稿では, 文献的推論の観点から, 説明の忠実さを評価する新しい手法を提案する。
離散シナリオと連続シナリオの両方において適切な反事実を見つけるために2つのアルゴリズムを導入し、取得した反事実を用いて忠実度を測定する。
論文 参考訳(メタデータ) (2021-09-05T01:38:49Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。