論文の概要: Reasoning Paths as Signals: Augmenting Multi-hop Fact Verification through Structural Reasoning Progression
- arxiv url: http://arxiv.org/abs/2506.07075v1
- Date: Sun, 08 Jun 2025 10:30:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.077098
- Title: Reasoning Paths as Signals: Augmenting Multi-hop Fact Verification through Structural Reasoning Progression
- Title(参考訳): 信号としての推論経路:構造的推論進行によるマルチホップファクト検証の強化
- Authors: Liwen Zheng, Chaozhuo Li, Haoran Jia, Xi Zhang,
- Abstract要約: 現実のシナリオにおける事実のクレームの複雑さの増大は、自動化された事実検証システムにとって大きな課題となる。
既存のアプローチは、しばしば、推論経路の進化する構造を捉えるのに失敗する静的または浅いモデルに依存している。
本稿では,エビデンス検索とクレーム検証の段階を通じて,構造化グラフとしての推論経路を明示的にモデル化する構造推論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.437936654405211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing complexity of factual claims in real-world scenarios presents significant challenges for automated fact verification systems, particularly in accurately aggregating and reasoning over multi-hop evidence. Existing approaches often rely on static or shallow models that fail to capture the evolving structure of reasoning paths, leading to fragmented retrieval and limited interpretability. To address these issues, we propose a Structural Reasoning framework for Multi-hop Fact Verification that explicitly models reasoning paths as structured graphs throughout both evidence retrieval and claim verification stages. Our method comprises two key modules: a structure-enhanced retrieval mechanism that constructs reasoning graphs to guide evidence collection, and a reasoning-path-guided verification module that incrementally builds subgraphs to represent evolving inference trajectories. We further incorporate a structure-aware reasoning mechanism that captures long-range dependencies across multi-hop evidence chains, enabling more precise verification. Extensive experiments on the FEVER and HoVer datasets demonstrate that our approach consistently outperforms strong baselines, highlighting the effectiveness of reasoning-path modeling in enhancing retrieval precision and verification accuracy.
- Abstract(参考訳): 現実のシナリオにおける事実主張の複雑さの増大は、自動化された事実検証システム、特にマルチホップ証拠の正確な集約と推論において、重大な課題を呈している。
既存のアプローチは、しばしば静的または浅いモデルに依存し、推論経路の進化する構造を捉えず、断片的な検索と限定的な解釈可能性をもたらす。
これらの問題に対処するため,我々は,エビデンス検索とクレーム検証の段階を通じて,経路を構造化グラフとして明示的にモデル化するマルチホップファクト検証のための構造推論フレームワークを提案する。
提案手法は,エビデンス収集を誘導する推論グラフを構成する構造強化検索機構と,進化する推論軌跡を表現するためにサブグラフを漸進的に構築する推論パス誘導検証モジュールの2つの重要なモジュールから構成される。
さらに、マルチホップエビデンスチェーン間の長距離依存関係をキャプチャする構造認識推論機構を導入し、より正確な検証を可能にする。
FEVERデータセットとHoVerデータセットの大規模な実験により、我々のアプローチは強いベースラインを一貫して上回り、検索精度と検証精度を向上させるための推論パスモデリングの有効性を強調した。
関連論文リスト
- Coordinating Search-Informed Reasoning and Reasoning-Guided Search in Claim Verification [16.655011153015202]
マルチホップクレーム検証のための階層型エージェント推論と情報検索(HARIS)を提案する。
HARISは、主検証チェーンの構築に集中し、より多くの情報が必要な場合に事実質問を生成する高レベル推論エージェントと、より多くの情報を反復的に検索する低レベル検索エージェントから構成される。
EX-FEVER と HOVER のベンチマーク実験の結果,HARIS は高い性能を示した。
論文 参考訳(メタデータ) (2025-06-09T08:11:43Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - STRIVE: Structured Reasoning for Self-Improvement in Claim Verification [21.00145637520767]
自己改善検証のための構造化推論を提案する。
本稿では,Crim Decomposition,Entity Analysis,Evidence Grounding Verificationを用いた構造化推論設計を提案する。
その後、すべてのトレーニング例に対して推論連鎖を生成するために適用され、その後の自己改善トレーニングのために正確で構造的に健全なもののみを選択する。
論文 参考訳(メタデータ) (2025-02-17T16:07:07Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - CHECKWHY: Causal Fact Verification via Argument Structure [19.347690600431463]
CheckWhyは、新しい因果事実検証タスクに適したデータセットである。
CheckWhyは19K以上の「なぜ」クレーム・エビデンス・アグメント構造三重奏団で構成されており、サポート、反響、十分な情報ラベルがない。
論文 参考訳(メタデータ) (2024-08-20T15:03:35Z) - The Buffer Mechanism for Multi-Step Information Reasoning in Language Models [52.77133661679439]
大きな言語モデルの内部的推論メカニズムを調べることは、よりよいモデルアーキテクチャとトレーニング戦略を設計するのに役立ちます。
本研究では,トランスフォーマーモデルが垂直思考戦略を採用するメカニズムを解明するために,シンボリックデータセットを構築した。
我々は,GPT-2モデルに必要なトレーニング時間を75%削減し,モデルの推論能力を高めるために,ランダムな行列ベースアルゴリズムを提案した。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Leveraging Structured Information for Explainable Multi-hop Question
Answering and Reasoning [14.219239732584368]
本研究では,マルチホップ質問応答のための抽出された意味構造(グラフ)の構築と活用について検討する。
実験結果と人的評価の結果から、我々のフレームワークはより忠実な推論連鎖を生成し、2つのベンチマークデータセットのQA性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T05:32:39Z) - Exploring Faithful Rationale for Multi-hop Fact Verification via
Salience-Aware Graph Learning [13.72453491358488]
グラフ畳み込みネットワーク(GCN)とサリエンス対応グラフ学習を用いて,マルチホップ事実の検証を行う。
その結果,従来の最先端手法に比べて有理抽出法と事実検証法の両方において有意な利得が得られた。
論文 参考訳(メタデータ) (2022-12-02T09:54:05Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。