論文の概要: Hydra: Structured Cross-Source Enhanced Large Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2505.17464v1
- Date: Fri, 23 May 2025 04:45:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.815555
- Title: Hydra: Structured Cross-Source Enhanced Large Language Model Reasoning
- Title(参考訳): Hydra: 構造化されたクロスソースで拡張された大規模言語モデル推論
- Authors: Xingyu Tan, Xiaoyang Wang, Qing Liu, Xiwei Xu, Xin Yuan, Liming Zhu, Wenjie Zhang,
- Abstract要約: Hydraは、グラフトポロジ、ドキュメントセマンティクス、ソース信頼性を統合して、大規模言語モデルにおける深い忠実な推論をサポートするフレームワークである。
エージェント駆動による探索を通じてマルチホップとマルチエンタリティの問題に対処し、多様性と証拠の精度の両方を増大させる。
GPT-3.5の全てのベンチマークで最先端の結果が得られ、ToG-2は平均20.3%、最大30.1%という強力なハイブリッドベースラインを上回っている。
- 参考スコア(独自算出の注目度): 24.51679814461226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented generation (RAG) enhances large language models (LLMs) by incorporating external knowledge. Current hybrid RAG system retrieves evidence from both knowledge graphs (KGs) and text documents to support LLM reasoning. However, it faces challenges like handling multi-hop reasoning, multi-entity questions, multi-source verification, and effective graph utilization. To address these limitations, we present Hydra, a training-free framework that unifies graph topology, document semantics, and source reliability to support deep, faithful reasoning in LLMs. Hydra handles multi-hop and multi-entity problems through agent-driven exploration that combines structured and unstructured retrieval, increasing both diversity and precision of evidence. To tackle multi-source verification, Hydra uses a tri-factor cross-source verification (source trustworthiness assessment, cross-source corroboration, and entity-path alignment), to balance topic relevance with cross-modal agreement. By leveraging graph structure, Hydra fuses heterogeneous sources, guides efficient exploration, and prunes noise early. Comprehensive experiments on seven benchmark datasets show that Hydra achieves overall state-of-the-art results on all benchmarks with GPT-3.5, outperforming the strong hybrid baseline ToG-2 by an average of 20.3% and up to 30.1%. Furthermore, Hydra enables smaller models (e.g., Llama-3.1-8B) to achieve reasoning performance comparable to that of GPT-4-Turbo.
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデル(LLM)を強化する。
現在のハイブリッドRAGシステムは、知識グラフ(KG)とテキスト文書の両方から証拠を取得し、LCM推論をサポートする。
しかし、マルチホップ推論、マルチエンタリティ質問、マルチソース検証、効果的なグラフ利用といった課題に直面している。
このような制限に対処するために,グラフトポロジ,文書セマンティクス,ソース信頼性を統一したトレーニング不要のフレームワークであるHydraを紹介し,LLMの深い忠実な推論をサポートする。
Hydraは、構造的および非構造的検索を組み合わせたエージェント駆動の探索を通じてマルチホップとマルチエンタリティの問題に対処し、多様性と証拠の精度の両方を増大させる。
マルチソース検証に取り組むため、Hydraは三要素のクロスソース検証(ソース信頼性評価、クロスソースのコロンボレーション、エンティティパスアライメント)を使用して、トピック関連とクロスモーダル合意のバランスをとる。
グラフ構造を活用することで、Hydraは異質なソースを融合し、効率的な探索をガイドし、早期にノイズを発生させる。
7つのベンチマークデータセットに関する総合的な実験によると、HydraはGPT-3.5ですべてのベンチマークで、ToG-2を平均20.3%、最大30.1%で上回っている。
さらに、Hydraはより小さなモデル(例えばLlama-3.1-8B)で、GPT-4-Turboに匹敵する推論性能を実現することができる。
関連論文リスト
- Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - HM-RAG: Hierarchical Multi-Agent Multimodal Retrieval Augmented Generation [11.53083922927901]
HM-RAGは階層型マルチエージェントマルチモーダルRAGフレームワークである。
構造化、非構造化、グラフベースのデータ間での動的知識合成のための協調知能の先駆者である。
論文 参考訳(メタデータ) (2025-04-13T06:55:33Z) - RAG-based Question Answering over Heterogeneous Data and Text [23.075485587443485]
本稿では,非構造化テキスト,構造化テーブル,知識グラフに対する質問応答システムについて述べる。
システムはRAGベースのアーキテクチャを採用し、証拠検索のパイプラインと応答生成、そして後者は中程度の言語モデルによって駆動される。
3つの異なるベンチマークによる実験は、我々のアプローチの高い応答品質を示し、大きなGPTモデルと同等かそれ以上である。
論文 参考訳(メタデータ) (2024-12-10T11:18:29Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.57125498367907]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices [91.71951459594074]
拡張コンテキストウィンドウを持つLong Language Model (LLM) は、情報抽出、質問応答、複雑な計画シナリオなどのタスクを大幅に改善した。
既存のメソッドは通常、Self-Instructフレームワークを使用して、長いコンテキスト能力を改善するために命令チューニングデータを生成する。
本稿では,品質検証エージェント,シングルホップ質問生成エージェント,複数質問サンプリング戦略,マルチホップ質問マーガーエージェントを組み込んだマルチエージェント対話型マルチホップ生成フレームワークを提案する。
以上の結果から,我々の合成高品位長文指導データにより,多量の人体で訓練したモデルよりも,モデル性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-03T13:30:00Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。