論文の概要: Hydra: Structured Cross-Source Enhanced Large Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2505.17464v1
- Date: Fri, 23 May 2025 04:45:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.815555
- Title: Hydra: Structured Cross-Source Enhanced Large Language Model Reasoning
- Title(参考訳): Hydra: 構造化されたクロスソースで拡張された大規模言語モデル推論
- Authors: Xingyu Tan, Xiaoyang Wang, Qing Liu, Xiwei Xu, Xin Yuan, Liming Zhu, Wenjie Zhang,
- Abstract要約: Hydraは、グラフトポロジ、ドキュメントセマンティクス、ソース信頼性を統合して、大規模言語モデルにおける深い忠実な推論をサポートするフレームワークである。
エージェント駆動による探索を通じてマルチホップとマルチエンタリティの問題に対処し、多様性と証拠の精度の両方を増大させる。
GPT-3.5の全てのベンチマークで最先端の結果が得られ、ToG-2は平均20.3%、最大30.1%という強力なハイブリッドベースラインを上回っている。
- 参考スコア(独自算出の注目度): 24.51679814461226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented generation (RAG) enhances large language models (LLMs) by incorporating external knowledge. Current hybrid RAG system retrieves evidence from both knowledge graphs (KGs) and text documents to support LLM reasoning. However, it faces challenges like handling multi-hop reasoning, multi-entity questions, multi-source verification, and effective graph utilization. To address these limitations, we present Hydra, a training-free framework that unifies graph topology, document semantics, and source reliability to support deep, faithful reasoning in LLMs. Hydra handles multi-hop and multi-entity problems through agent-driven exploration that combines structured and unstructured retrieval, increasing both diversity and precision of evidence. To tackle multi-source verification, Hydra uses a tri-factor cross-source verification (source trustworthiness assessment, cross-source corroboration, and entity-path alignment), to balance topic relevance with cross-modal agreement. By leveraging graph structure, Hydra fuses heterogeneous sources, guides efficient exploration, and prunes noise early. Comprehensive experiments on seven benchmark datasets show that Hydra achieves overall state-of-the-art results on all benchmarks with GPT-3.5, outperforming the strong hybrid baseline ToG-2 by an average of 20.3% and up to 30.1%. Furthermore, Hydra enables smaller models (e.g., Llama-3.1-8B) to achieve reasoning performance comparable to that of GPT-4-Turbo.
- Abstract(参考訳): Retrieval-augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデル(LLM)を強化する。
現在のハイブリッドRAGシステムは、知識グラフ(KG)とテキスト文書の両方から証拠を取得し、LCM推論をサポートする。
しかし、マルチホップ推論、マルチエンタリティ質問、マルチソース検証、効果的なグラフ利用といった課題に直面している。
このような制限に対処するために,グラフトポロジ,文書セマンティクス,ソース信頼性を統一したトレーニング不要のフレームワークであるHydraを紹介し,LLMの深い忠実な推論をサポートする。
Hydraは、構造的および非構造的検索を組み合わせたエージェント駆動の探索を通じてマルチホップとマルチエンタリティの問題に対処し、多様性と証拠の精度の両方を増大させる。
マルチソース検証に取り組むため、Hydraは三要素のクロスソース検証(ソース信頼性評価、クロスソースのコロンボレーション、エンティティパスアライメント)を使用して、トピック関連とクロスモーダル合意のバランスをとる。
グラフ構造を活用することで、Hydraは異質なソースを融合し、効率的な探索をガイドし、早期にノイズを発生させる。
7つのベンチマークデータセットに関する総合的な実験によると、HydraはGPT-3.5ですべてのベンチマークで、ToG-2を平均20.3%、最大30.1%で上回っている。
さらに、Hydraはより小さなモデル(例えばLlama-3.1-8B)で、GPT-4-Turboに匹敵する推論性能を実現することができる。
関連論文リスト
- MultiRAG: A Knowledge-guided Framework for Mitigating Hallucination in Multi-source Retrieval Augmented Generation [5.243680711038957]
MultiRAGは、マルチソース検索拡張世代における幻覚を緩和する新しいフレームワークである。
複数ソースのライングラフを使用して、異なる知識ソース間の論理的関係を効率的に集約する。
マルチレベル信頼度計算機構を実装し、信頼できない情報ノードを識別・排除するために、グラフレベルとノードレベルのアセスメントを実行する。
論文 参考訳(メタデータ) (2025-08-05T15:20:52Z) - Benchmarking Multimodal Understanding and Complex Reasoning for ESG Tasks [56.350173737493215]
環境・社会・ガバナンス(ESG)報告は、持続可能性の実践の評価、規制コンプライアンスの確保、財務透明性の促進に不可欠である。
MMESGBenchは、マルチモーダル理解と複雑な推論を、構造的に多種多様なマルチソースESG文書間で評価するための、最初のベンチマークデータセットである。
MMESGBenchは、45のESG文書から得られた933の検証済みQAペアで構成され、7つの異なるドキュメントタイプと3つの主要なESGソースカテゴリにまたがる。
論文 参考訳(メタデータ) (2025-07-25T03:58:07Z) - BifrostRAG: Bridging Dual Knowledge Graphs for Multi-Hop Question Answering in Construction Safety [11.079426930790458]
多くのコンプライアンス関連のクエリはマルチホップであり、リンクされた節間で情報を合成する必要がある。
これは、従来の検索拡張世代(RAG)システムにとっての課題である。
本稿では、言語関係と文書構造の両方を明示的にモデル化した二重グラフRAG統合システムであるBifrostRAGを紹介する。
論文 参考訳(メタデータ) (2025-07-18T03:39:14Z) - Benchmarking Deep Search over Heterogeneous Enterprise Data [73.55304268238474]
検索強化生成(RAG)の形式を評価するための新しいベンチマークを提案する。
RAGは、多種多様な、しかし関連するソースに対して、ソースを意識したマルチホップ推論を必要とする。
製品計画、開発、サポートステージをまたいだビジネスをシミュレートする合成データパイプラインを使用して構築します。
論文 参考訳(メタデータ) (2025-06-29T08:34:59Z) - BiMark: Unbiased Multilayer Watermarking for Large Language Models [54.58546293741373]
テキスト品質とメッセージ埋め込み能力のバランスをとる新しい透かしフレームワークであるBiMarkを提案する。
BiMarkは、短いテキストに対して最大30%高い抽出率を達成すると同時に、低いパープレキシティで示されるテキスト品質を維持する。
論文 参考訳(メタデータ) (2025-06-19T11:08:59Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Hierarchical Lexical Graph for Enhanced Multi-Hop Retrieval [22.33550491040999]
RAGは、大きな言語モデルを外部の証拠に基礎を置いているが、セマンティックに遠く離れた文書で答えをまとめなければならないと、いまだに混乱している。
私たちは、StatementGraphRAGとTopicGraphRAGという2つのプラグイン・アンド・プレイレトリバーを構築します。
提案手法は,検索リコールと正当性において平均23.1%の相対的改善を達成し,有意なチャンクベースRAGよりも優れていた。
論文 参考訳(メタデータ) (2025-06-09T17:58:35Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - HM-RAG: Hierarchical Multi-Agent Multimodal Retrieval Augmented Generation [11.53083922927901]
HM-RAGは階層型マルチエージェントマルチモーダルRAGフレームワークである。
構造化、非構造化、グラフベースのデータ間での動的知識合成のための協調知能の先駆者である。
論文 参考訳(メタデータ) (2025-04-13T06:55:33Z) - RAG-based Question Answering over Heterogeneous Data and Text [23.075485587443485]
本稿では,非構造化テキスト,構造化テーブル,知識グラフに対する質問応答システムについて述べる。
システムはRAGベースのアーキテクチャを採用し、証拠検索のパイプラインと応答生成、そして後者は中程度の言語モデルによって駆動される。
3つの異なるベンチマークによる実験は、我々のアプローチの高い応答品質を示し、大きなGPTモデルと同等かそれ以上である。
論文 参考訳(メタデータ) (2024-12-10T11:18:29Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.57125498367907]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices [91.71951459594074]
拡張コンテキストウィンドウを持つLong Language Model (LLM) は、情報抽出、質問応答、複雑な計画シナリオなどのタスクを大幅に改善した。
既存のメソッドは通常、Self-Instructフレームワークを使用して、長いコンテキスト能力を改善するために命令チューニングデータを生成する。
本稿では,品質検証エージェント,シングルホップ質問生成エージェント,複数質問サンプリング戦略,マルチホップ質問マーガーエージェントを組み込んだマルチエージェント対話型マルチホップ生成フレームワークを提案する。
以上の結果から,我々の合成高品位長文指導データにより,多量の人体で訓練したモデルよりも,モデル性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-03T13:30:00Z) - Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation [14.448198170932226]
Think-on-Graph 2.0 (ToG-2) は、構造化されていない知識ソースと構造化されていない知識ソースの両方から情報を反復的に取得するハイブリッドRAGフレームワークである。
ToG-2は、グラフ検索とコンテキスト検索の交互に、質問に関連する詳細な手がかりを検索する。
GPT-3.5で7つの知識集約データセットのうち6つで、全体的なSOTA(State-of-the-art)のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T15:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。