論文の概要: Coordinating Search-Informed Reasoning and Reasoning-Guided Search in Claim Verification
- arxiv url: http://arxiv.org/abs/2506.07528v1
- Date: Mon, 09 Jun 2025 08:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.126698
- Title: Coordinating Search-Informed Reasoning and Reasoning-Guided Search in Claim Verification
- Title(参考訳): クレーム検証における探索インフォームド推論と推論誘導探索のコーディネート
- Authors: Qisheng Hu, Quanyu Long, Wenya Wang,
- Abstract要約: マルチホップクレーム検証のための階層型エージェント推論と情報検索(HARIS)を提案する。
HARISは、主検証チェーンの構築に集中し、より多くの情報が必要な場合に事実質問を生成する高レベル推論エージェントと、より多くの情報を反復的に検索する低レベル検索エージェントから構成される。
EX-FEVER と HOVER のベンチマーク実験の結果,HARIS は高い性能を示した。
- 参考スコア(独自算出の注目度): 16.655011153015202
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-hop claim verification is inherently challenging, requiring multi-step reasoning to construct verification chains while iteratively searching for information to uncover hidden bridging facts. This process is fundamentally interleaved, as effective reasoning relies on dynamically retrieved evidence, while effective search demands reasoning to refine queries based on partial information. To achieve this, we propose Hierarchical Agent Reasoning and Information Search (HARIS), explicitly modeling the coordinated process of reasoning-driven searching and search-informed reasoning. HARIS consists of a high-level reasoning agent that focuses on constructing the main verification chain, generating factual questions when more information is needed, and a low-level search agent that iteratively retrieves more information, refining its search based on intermediate findings. This design allows each agent to specialize in its respective task, enhancing verification accuracy and interpretability. HARIS is trained using reinforcement learning with outcome-based rewards. Experimental results on the EX-FEVER and HOVER benchmarks demonstrate that HARIS achieves strong performance, greatly advancing multi-hop claim verification.
- Abstract(参考訳): マルチホップクレームの検証は本質的には困難であり、隠されたブリッジング事実を明らかにするために情報を反復的に探しながら、検証チェーンを構築するために多段階の推論を必要とする。
効率的な推論は動的に抽出された証拠に依存し、効果的な探索要求は部分的な情報に基づいてクエリを洗練させる。
そこで我々は階層型エージェント推論と情報探索(HARIS)を提案し、推論駆動探索と探索インフォームド推論の協調過程を明示的にモデル化する。
HARISは、主検証チェーンの構築に集中し、より多くの情報が必要な場合に事実質問を生成する高レベル推論エージェントと、中間的な結果に基づいて探索を反復的に検索する低レベル検索エージェントから構成される。
この設計により、各エージェントがそれぞれのタスクを専門化し、検証精度と解釈可能性を高めることができる。
HARISは強化学習と結果に基づく報酬を使って訓練されている。
EX-FEVERとHOVERベンチマークの実験結果から、HARISは高い性能を示し、マルチホップクレーム検証を大幅に進歩させた。
関連論文リスト
- Reasoning Paths as Signals: Augmenting Multi-hop Fact Verification through Structural Reasoning Progression [12.437936654405211]
現実のシナリオにおける事実のクレームの複雑さの増大は、自動化された事実検証システムにとって大きな課題となる。
既存のアプローチは、しばしば、推論経路の進化する構造を捉えるのに失敗する静的または浅いモデルに依存している。
本稿では,エビデンス検索とクレーム検証の段階を通じて,構造化グラフとしての推論経路を明示的にモデル化する構造推論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-08T10:30:36Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - ClueAnchor: Clue-Anchored Knowledge Reasoning Exploration and Optimization for Retrieval-Augmented Generation [82.28147821286709]
我々は、検索拡張世代(RAG)を向上するための新しいフレームワークであるClueAnchorを提案する。
ClueAnchorは、検索したコンテンツからキーキーを抽出し、異なる知識構成に基づいて複数の推論パスを生成する。
実験の結果、ClueAnchorはRAG以前のベースラインよりも完全性や堅牢性に優れていた。
論文 参考訳(メタデータ) (2025-05-30T09:18:08Z) - SEM: Reinforcement Learning for Search-Efficient Large Language Models [26.075903427834838]
大きな言語モデル(LLM)は、推論だけでなく、外部ツールの呼び出しでもその能力を実証している。
既存の強化学習アプローチは、しばしば冗長な探索行動を引き起こす。
本研究では,学習後強化学習フレームワークであるSEMを提案する。
論文 参考訳(メタデータ) (2025-05-12T09:45:40Z) - Reasoning Court: Combining Reasoning, Action, and Judgment for Multi-Hop Reasoning [17.829990749622496]
Reasoning Court(RC)は、ReActのような反復的推論と検索の手法を拡張した新しいフレームワークである。
RCはタスク固有の微調整なしで、最先端のショットプロンプト手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-14T00:56:08Z) - Holistically Guided Monte Carlo Tree Search for Intricate Information Seeking [118.3983437282541]
我々は,モンテカルロ木探索 (HG-MCTS) を用いた新たな情報探索パラダイムを採用したLLMベースの検索アシスタントを提案する。
本稿では,知識メモリを用いたプログレッシブ情報収集プロセスとしてタスクを再構築し,適応型チェックリストとMCTSのマルチパースペクティブ報酬モデルとを結合する。
マルチパースペクティブ報酬モデリングは、探索と検索の両方の報奨と、完了と残るサブゴールを追跡する進捗フィードバックを提供する。
論文 参考訳(メタデータ) (2025-02-07T08:36:39Z) - Prompt-fused framework for Inductive Logical Query Answering [31.736934787328156]
本稿では,Pro-QEという問合せ対応のプロンプトフューズフレームワークを提案する。
論理的クエリにおける未知のエンティティの問題に,我々のモデルがうまく対処できることが示される。
論文 参考訳(メタデータ) (2024-03-19T11:30:30Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。