論文の概要: Consistent Multi-Granular Rationale Extraction for Explainable Multi-hop
Fact Verification
- arxiv url: http://arxiv.org/abs/2305.09400v1
- Date: Tue, 16 May 2023 12:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:56:11.495113
- Title: Consistent Multi-Granular Rationale Extraction for Explainable Multi-hop
Fact Verification
- Title(参考訳): 説明可能なマルチホップファクト検証のための一貫性のあるマルチグラニュラーライナリー抽出
- Authors: Jiasheng Si, Yingjie Zhu, Deyu Zhou
- Abstract要約: 本稿では,マルチホップ事実検証のための一貫性と忠実度を考慮した多粒性論理的抽出の実現可能性について検討する。
特に、事前訓練された妥当性予測モデルにより、トークンレベル説明器と文レベル説明器を同時に訓練し、多粒性論理式を得る。
3つのマルチホップ事実検証データセットの実験結果から,提案手法は最先端のベースラインよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 13.72453491358488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep learning models on multi-hop fact verification has
prompted researchers to understand the behavior behind their veracity. One
possible way is erasure search: obtaining the rationale by entirely removing a
subset of input without compromising the veracity prediction. Although
extensively explored, existing approaches fall within the scope of the
single-granular (tokens or sentences) explanation, which inevitably leads to
explanation redundancy and inconsistency. To address such issues, this paper
explores the viability of multi-granular rationale extraction with consistency
and faithfulness for explainable multi-hop fact verification. In particular,
given a pretrained veracity prediction model, both the token-level explainer
and sentence-level explainer are trained simultaneously to obtain
multi-granular rationales via differentiable masking. Meanwhile, three
diagnostic properties (fidelity, consistency, salience) are introduced and
applied to the training process, to ensure that the extracted rationales
satisfy faithfulness and consistency. Experimental results on three multi-hop
fact verification datasets show that the proposed approach outperforms some
state-of-the-art baselines.
- Abstract(参考訳): マルチホップ事実検証におけるディープラーニングモデルの成功により、研究者は彼らの正確性の背後にある振る舞いを理解するようになった。
一つの方法は消去探索であり、正確性予測を損なうことなく、入力のサブセットを完全に取り除き、合理性を得る。
広く検討されているが、既存のアプローチは、必然的に冗長性と矛盾を説明できる単一粒状(トークンまたは文)の説明の範囲内にある。
このような問題に対処するため,本稿では,説明可能な多面的事実検証のための一貫性と忠実性を備えた多面的合理性抽出の実現可能性について検討する。
特に、事前訓練された精度予測モデルが与えられた場合、トークンレベル説明器と文レベル説明器を同時に訓練し、識別可能なマスキングにより多粒性有理性を得る。
一方, 3つの診断特性(忠実性, 一貫性, 塩分)を導入し, 訓練プロセスに適用し, 抽出された合理性が忠実性と一貫性を満足することを保証する。
3つのマルチホップ事実検証データセットの実験結果から,提案手法は最先端のベースラインよりも優れていることが示された。
関連論文リスト
- Uncertainty Quantification via Hölder Divergence for Multi-View Representation Learning [18.419742575630217]
本稿では,H"older Divergence (HD)に基づく新しいアルゴリズムを導入し,多視点学習の信頼性を高める。
デンプスター・シェーファー理論を通じて、異なるモダリティからの不確実性の統合により、包括的な結果が生成される。
数学的には、HDは実際のデータ分布とモデルの予測分布の間の距離'をよりよく測定できることを証明している。
論文 参考訳(メタデータ) (2024-10-29T04:29:44Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Exploring Faithful Rationale for Multi-hop Fact Verification via
Salience-Aware Graph Learning [13.72453491358488]
グラフ畳み込みネットワーク(GCN)とサリエンス対応グラフ学習を用いて,マルチホップ事実の検証を行う。
その結果,従来の最先端手法に比べて有理抽出法と事実検証法の両方において有意な利得が得られた。
論文 参考訳(メタデータ) (2022-12-02T09:54:05Z) - FASTER-CE: Fast, Sparse, Transparent, and Robust Counterfactual
Explanations [9.532938405575788]
FASTER-CE: 高速でスパースで堅牢な対実的説明を生成する新しいアルゴリズムのセットを提示する。
鍵となる考え方は、オートエンコーダを介して指定された潜在空間において、偽物に対する有望な探索方向を効率的に見つけることである。
最も有望な勾配方向の組み合わせを迅速に検証し、追加のユーザ定義制約を組み込むことで、複数の反現実的説明を生成することができる。
論文 参考訳(メタデータ) (2022-10-12T20:41:17Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - ReasonBERT: Pre-trained to Reason with Distant Supervision [17.962648165675684]
ReasonBertは、言語モデルを拡張し、長距離関係や複数の、おそらくはハイブリッドなコンテキストを推論する能力を持つ事前学習手法である。
様々な種類の推論がシミュレートされ、複数の証拠を交わし、ある証拠から別の証拠に橋渡しし、解決不可能な事例を検出する。
論文 参考訳(メタデータ) (2021-09-10T14:49:44Z) - Counterfactual Evaluation for Explainable AI [21.055319253405603]
そこで本稿では, 文献的推論の観点から, 説明の忠実さを評価する新しい手法を提案する。
離散シナリオと連続シナリオの両方において適切な反事実を見つけるために2つのアルゴリズムを導入し、取得した反事実を用いて忠実度を測定する。
論文 参考訳(メタデータ) (2021-09-05T01:38:49Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。