論文の概要: Hierarchical Sequence Iteration for Heterogeneous Question Answering
- arxiv url: http://arxiv.org/abs/2510.20505v1
- Date: Thu, 23 Oct 2025 12:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.920407
- Title: Hierarchical Sequence Iteration for Heterogeneous Question Answering
- Title(参考訳): 不均一質問応答に対する階層的シーケンス反復法
- Authors: Ruiyi Yang, Hao Xue, Imran Razzak, Hakim Hacid, Flora D. Salim,
- Abstract要約: 本稿では,文書,表,知識グラフを可逆的階層列に線形化する統一フレームワークであるHSEQを紹介する。
HotpotQA(テキスト)、HybridQA/TAT-QA(テーブル+テキスト)、MetaQA(KG)の実験では、強いシングルパス、マルチホップ、エージェントRAGベースラインを高い効率で一貫したEM/F1が得られた。
- 参考スコア(独自算出の注目度): 27.22775290181187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) remains brittle on multi-step questions and heterogeneous evidence sources, trading accuracy against latency and token/tool budgets. This paper introducesHierarchical Sequence (HSEQ) Iteration for Heterogeneous Question Answering, a unified framework that (i) linearize documents, tables, and knowledge graphs into a reversible hierarchical sequence with lightweight structural tags, and (ii) perform structure-aware iteration to collect just-enough evidence before answer synthesis. A Head Agent provides guidance that leads retrieval, while an Iteration Agent selects and expands HSeq via structure-respecting actions (e.g., parent/child hops, table row/column neighbors, KG relations); Finally the head agent composes canonicalized evidence to genearte the final answer, with an optional refinement loop to resolve detected contradictions. Experiments on HotpotQA (text), HybridQA/TAT-QA (table+text), and MetaQA (KG) show consistent EM/F1 gains over strong single-pass, multi-hop, and agentic RAG baselines with high efficiency. Besides, HSEQ exhibits three key advantages: (1) a format-agnostic unification that enables a single policy to operate across text, tables, and KGs without per-dataset specialization; (2) guided, budget-aware iteration that reduces unnecessary hops, tool calls, and tokens while preserving accuracy; and (3) evidence canonicalization for reliable QA, improving answers consistency and auditability.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、多段階の質問や異種エビデンスソース、レイテンシとトークン/ツールの予算に対するトレーディング精度について、依然として脆弱である。
本稿では,階層的系列(HSEQ)による不均一質問回答の反復について紹介する。
一 文書、表及び知識グラフを軽量な構造タグで可逆的な階層列に線形化すること。
2) 回答合成の前に, 十分な証拠を収集するために, 構造対応反復を行う。
Head Agentは検索を導くガイダンスを提供する一方で、Iteration Agentは構造参照アクション(例えば、親子ホップ、テーブル行/カラムの隣人、KG関係)を通じてHSeqを選択して拡張する。
HotpotQA(テキスト)、HybridQA/TAT-QA(テーブル+テキスト)、MetaQA(KG)の実験では、強いシングルパス、マルチホップ、エージェントRAGベースラインを高い効率で一貫したEM/F1が得られた。
さらにHSEQは,(1)テキスト,テーブル,KGをデータ単位の専門化なしに操作できる形式に依存しない統一,(2)不必要なホップ,ツールコール,トークンの正確性を維持しながら,不要なホップ,ツールコール,トークンの削減を図り,(3)信頼性の高いQAに対する証拠正則化,回答の整合性と監査性の向上,という3つの大きなメリットを示した。
関連論文リスト
- SUBQRAG: sub-question driven dynamic graph rag [34.20328335590984]
SubQRAGは、推論深度を高めるサブクエスト駆動のフレームワークである。
SubQRAGは複雑な質問を検証可能なサブクエストの順序付けられた連鎖に分解する。
3つのマルチホップQAベンチマークの実験では、SubQRAGが一貫性と大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-10-09T02:55:58Z) - RAGulating Compliance: A Multi-Agent Knowledge Graph for Regulatory QA [0.0]
規制コンプライアンス質問応答(QA)は、正確で検証可能な情報を必要とする。
我々は、レギュレーション三重項の知識グラフ(KG)とレトリーバル拡張生成(RAG)を統合する新しいマルチエージェントフレームワークを提案する。
我々のハイブリッドシステムは、複雑な規制クエリにおいて従来の手法よりも優れており、組込み三重項による事実の正しさが保証されている。
論文 参考訳(メタデータ) (2025-08-13T15:51:05Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Evidence-Enhanced Triplet Generation Framework for Hallucination Alleviation in Generative Question Answering [41.990482015732574]
本稿では,三重項(クエスト,エビデンス,アンスワー)の組合せを予測するための新しいエビデンス強化三重項生成フレームワークであるEATQAを提案する。
推測段階における証拠から知識を抽出するために,分布ギャップを橋渡しする。
我々のフレームワークは,クエリとエビデンスと応答の間の論理的関係を学習し,同時にエビデンス生成とクエリ応答を改善する。
論文 参考訳(メタデータ) (2024-08-27T13:07:07Z) - TRACE the Evidence: Constructing Knowledge-Grounded Reasoning Chains for Retrieval-Augmented Generation [30.485127201645437]
本稿では,RAGモデルのマルチホップ推論能力を高めるためにTRACEを提案する。
TRACEは、論理的に連結された一連の知識三重項である知識基底推論連鎖を構成する。
TRACEは、取得したすべてのドキュメントと比較して、平均14.03%の性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-17T12:23:32Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering [40.58976291178477]
本稿では,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
その単純さにもかかわらず,提案手法はエビデンス選択タスクにおいて,従来の手法よりも優れていた。
これらのエビデンス文をRoBERTaの回答分類コンポーネントに入力すると、最先端のQA性能が得られる。
論文 参考訳(メタデータ) (2020-05-04T00:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。