論文の概要: Exploring Faithful Rationale for Multi-hop Fact Verification via
Salience-Aware Graph Learning
- arxiv url: http://arxiv.org/abs/2212.01060v1
- Date: Fri, 2 Dec 2022 09:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 15:46:40.513141
- Title: Exploring Faithful Rationale for Multi-hop Fact Verification via
Salience-Aware Graph Learning
- Title(参考訳): salience-aware graph learningによるマルチホップファクト検証の忠実な根拠の検討
- Authors: Jiasheng Si, Yingjie Zhu, Deyu Zhou
- Abstract要約: グラフ畳み込みネットワーク(GCN)とサリエンス対応グラフ学習を用いて,マルチホップ事実の検証を行う。
その結果,従来の最先端手法に比べて有理抽出法と事実検証法の両方において有意な利得が得られた。
- 参考スコア(独自算出の注目度): 13.72453491358488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The opaqueness of the multi-hop fact verification model imposes imperative
requirements for explainability. One feasible way is to extract rationales, a
subset of inputs, where the performance of prediction drops dramatically when
being removed. Though being explainable, most rationale extraction methods for
multi-hop fact verification explore the semantic information within each piece
of evidence individually, while ignoring the topological information
interaction among different pieces of evidence. Intuitively, a faithful
rationale bears complementary information being able to extract other
rationales through the multi-hop reasoning process. To tackle such
disadvantages, we cast explainable multi-hop fact verification as subgraph
extraction, which can be solved based on graph convolutional network (GCN) with
salience-aware graph learning. In specific, GCN is utilized to incorporate the
topological interaction information among multiple pieces of evidence for
learning evidence representation. Meanwhile, to alleviate the influence of
noisy evidence, the salience-aware graph perturbation is induced into the
message passing of GCN. Moreover, the multi-task model with three diagnostic
properties of rationale is elaborately designed to improve the quality of an
explanation without any explicit annotations. Experimental results on the
FEVEROUS benchmark show significant gains over previous state-of-the-art
methods for both rationale extraction and fact verification.
- Abstract(参考訳): マルチホップ事実検証モデルの不透明性は説明可能性に対する命令的要件を課す。
一つの実現可能な方法は、入力のサブセットである合理性を抽出することであり、そこでは、除去されたときに予測性能が劇的に低下する。
説明はできるが、マルチホップ事実検証のための最も合理的な抽出法は、それぞれの証拠の中の意味情報を個別に探索し、異なる証拠間のトポロジ的情報相互作用を無視している。
直感的には、忠実な理性は、多重ホップ推論プロセスを通じて他の理性を引き出すことができる相補的な情報を持つ。
このような欠点に対処するために,グラフ畳み込みネットワーク(gcn)に基づくグラフ学習を用いて,説明可能な多重ホップ事実検証をサブグラフ抽出として提案する。
特に、gcnはエビデンス表現を学ぶために複数のエビデンスにトポロジカルな相互作用情報を組み込むのに使われている。
一方、ノイズのある証拠の影響を軽減するために、サリエンス対応グラフ摂動がGCNのメッセージパッシングに誘導される。
さらに,3つの診断特性を持つマルチタスクモデルは,明示的なアノテーションを伴わずに説明の質を向上させるために精巧に設計されている。
FEVEROUSベンチマークの実験結果から,従来の最先端手法に比べて有理抽出と事実検証の両面で有意な向上を示した。
関連論文リスト
- Heterogeneous Graph Reasoning for Fact Checking over Texts and Tables [22.18384189336634]
HeterFCは、非構造化情報および構造化情報に対するFact Checkingのための単語レベルの不均一グラフベースのモデルである。
我々は,レーショナルグラフニューラルネットワークによる情報伝達,クレームとエビデンス間の相互作用を行う。
本稿では,エビデンス検索における潜在的な不正確性を考慮したマルチタスク損失関数を提案する。
論文 参考訳(メタデータ) (2024-02-20T14:10:40Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - Consistent Multi-Granular Rationale Extraction for Explainable Multi-hop
Fact Verification [13.72453491358488]
本稿では,マルチホップ事実検証のための一貫性と忠実度を考慮した多粒性論理的抽出の実現可能性について検討する。
特に、事前訓練された妥当性予測モデルにより、トークンレベル説明器と文レベル説明器を同時に訓練し、多粒性論理式を得る。
3つのマルチホップ事実検証データセットの実験結果から,提案手法は最先端のベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-16T12:31:53Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Adversarial Contrastive Learning for Evidence-aware Fake News Detection
with Graph Neural Networks [20.282527436527765]
本稿では,Contrastive Learning,すなわちGETRALを用いたグラフベースのsEmantic構造マイニングフレームワークを提案する。
まず、グラフ構造化データとしてクレームとエビデンスをモデル化し、長距離セマンティック依存関係をキャプチャします。
次に、詳細なセマンティック表現をクレーム-エビデンス相互作用モジュールに入力して予測を行う。
論文 参考訳(メタデータ) (2022-10-11T14:54:37Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Towards Fine-Grained Reasoning for Fake News Detection [43.497126436856426]
我々は、人間の思考の論理的過程をよりよく反映して、偽ニュース検出のためのきめ細かい推論に向かっている。
特に,人間の情報処理モデルに従うことによって,詳細な推論フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:45:36Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z) - Dynamic Semantic Graph Construction and Reasoning for Explainable
Multi-hop Science Question Answering [50.546622625151926]
マルチホップQAのための説明可能性を得ながら,より有効な事実を活用できる新しいフレームワークを提案する。
a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(a) tt AMR-SG,(c) グラフ畳み込みネットワーク(GCN)を利用した事実レベルの関係モデリング,(c) 推論過程の導出を行う。
論文 参考訳(メタデータ) (2021-05-25T09:14:55Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。