論文の概要: Collaborative Chain-of-Agents for Parametric-Retrieved Knowledge Synergy
- arxiv url: http://arxiv.org/abs/2508.01696v2
- Date: Tue, 05 Aug 2025 08:00:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 13:15:14.129348
- Title: Collaborative Chain-of-Agents for Parametric-Retrieved Knowledge Synergy
- Title(参考訳): パラメトリック検索知識の相乗効果に対する協調的連鎖-Agents
- Authors: Yi Jiang, Sendong Zhao, Jianbo Li, Haochun Wang, Lizhe Zhang, Yan Liu, Bing Qin,
- Abstract要約: コラボレーティブ・チェーン・オブ・アジェンツ(Collaborative Chain-of-Agents)は、パラメトリックと検索された知識の相乗効果を高めるために設計されたフレームワークである。
CoCoA-zeroとCoCoAは、オープンドメインおよびマルチホップQAタスクにおいて優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 31.03800299571446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) has emerged as a promising framework for enhancing the capabilities of Large Language Models (LLMs), especially in knowledge-intensive tasks. Despite its advantages, current RAG methods often struggle to *fully exploit knowledge during generation*. In particular, the synergy between the model's internal parametric knowledge and external retrieved knowledge remains limited. Retrieved contents may sometimes mislead generation, while certain generated content can guide the model toward more accurate outputs. In this work, we propose Collaborative Chain-of-Agents, a framework designed to enhance explicitly synergy over both parametric and retrieved knowledge. Specifically, we first introduce CoCoA-zero, a multi-agent RAG framework that first performs conditional knowledge induction and then reasons answers. Building on this, we develop CoCoA, a long-chain training strategy that synthesizes extended multi-agent reasoning trajectories from CoCoA-zero to fine-tune the LLM. This strategy enhances the model's capability to explicitly integrate and jointly leverage parametric and retrieved knowledge. Experiments results show that CoCoA-zero and CoCoA achieve superior performance on open-domain and multi-hop QA tasks.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、特に知識集約的なタスクにおいて、LLM(Large Language Models)の能力を高めるための有望なフレームワークとして登場した。
その利点にもかかわらず、現在のRAGメソッドは、世代間の知識を*うまく活用するのに苦労することが多い。
特に、モデルの内部パラメトリック知識と外部抽出知識との相乗効果は限定的である。
検索されたコンテンツは時に誤解を招くことがあるが、特定の生成されたコンテンツはモデルをより正確な出力へと導くことができる。
本研究では,パラメトリック知識と検索知識の両面での相乗効果を明確に向上するフレームワークであるCollaborative Chain-of-Agentsを提案する。
具体的には,まず条件付き知識誘導を行うマルチエージェントRAGフレームワークCoCoA-zeroを紹介する。
そこで我々は,CoCoA-ゼロから拡張マルチエージェント推論軌道を合成し,LLMを微調整する長鎖トレーニング戦略であるCoCoAを開発した。
この戦略は、パラメトリックと検索された知識を明示的に統合し、共同で活用するモデルの能力を強化する。
実験の結果、CoCoA-zeroとCoCoAは、オープンドメインおよびマルチホップQAタスクにおいて優れた性能を発揮することが示された。
関連論文リスト
- SoftPipe: A Soft-Guided Reinforcement Learning Framework for Automated Data Preparation [10.764970149373845]
我々は,厳格な制約をソフトガイダンスのパラダイムに置き換える,新しいRLフレームワークであるSoftPipeを紹介した。
我々は、SoftPipeがパイプラインの品質を最大13.9%改善し、2.8$times$既存の方法よりも高速な収束を実現することを実証した。
論文 参考訳(メタデータ) (2025-07-18T07:43:22Z) - Knowledgeable-r1: Policy Optimization for Knowledge Exploration in Retrieval-Augmented Generation [6.870247946243668]
Retrieval-augmented Generation (RAG) は知識集約型タスクの性能向上のための主流の手法である。
本稿では,共同サンプリングを用いたナレッジブル-r1を提案し,知識能力探索における多ポリシ分布を定義した。
実験により、Knowledgeable-r1はパラメータと文脈の衝突タスクの両方において、堅牢性と推論の精度を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-06-05T15:34:15Z) - CoRe-MMRAG: Cross-Source Knowledge Reconciliation for Multimodal RAG [53.950029990391066]
マルチモーダルRAG(CoRe-MMRAG)のためのクロスソース知識textbfReconciliation
本稿では,知識ソース間の不整合を効果的に解決する新しいエンドツーエンドフレームワークを提案する。
KB-VQAベンチマークの実験では、CoRe-MMRAGはベースライン法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-06-03T07:32:40Z) - GenKI: Enhancing Open-Domain Question Answering with Knowledge Integration and Controllable Generation in Large Language Models [75.25348392263676]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - CoRAG: Collaborative Retrieval-Augmented Generation [26.748765050034876]
CoRAGは、協調的な設定のためのフレームワーク拡張型生成(RAG)モデルである。
我々は,CoRAGが低リソースシナリオにおけるパラメトリック協調学習法と局所的に訓練されたRAGモデルの両方より一貫して優れていることを示す。
これは、集約された知識ベースを活用することと、他のクライアントからの有害なパスを組み込むことの潜在的なリスクとのトレードオフである。
論文 参考訳(メタデータ) (2025-04-02T16:40:43Z) - RAG-KG-IL: A Multi-Agent Hybrid Framework for Reducing Hallucinations and Enhancing LLM Reasoning through RAG and Incremental Knowledge Graph Learning Integration [4.604003661048267]
RAG-KG-ILは、大規模言語モデルの推論能力を高めるために設計された、新しいマルチエージェントハイブリッドフレームワークである。
Retrieval-Augmented Generation (RAG) と Knowledge Graphs (KG) をインクリメンタルラーニング (IL) アプローチに統合する。
我々は、健康関連クエリを含む実世界のケーススタディを用いて、このフレームワークを評価する。
論文 参考訳(メタデータ) (2025-03-14T11:50:16Z) - CoAT: Chain-of-Associated-Thoughts Framework for Enhancing Large Language Models Reasoning [0.8192907805418583]
Chain-of-Associated-Thoughts (CoAT)フレームワークは、モンテカルロ木探索(MCTS)アルゴリズムと「連想記憶」と呼ばれる新しいキー情報を統合する動的メカニズムの革新的な相乗効果を導入している。
MCTSの構造的探索能力と連想記憶の適応学習能力を組み合わせることで、CoATはLLM検索空間を大幅に拡張し、多様な推論経路を探索し、その知識ベースをリアルタイムで動的に更新することを可能にする。
これらの実験により、我々のフレームワークは、精度、コヒーレンス、多様性に関する従来の推論プロセスより優れていることが示された。
論文 参考訳(メタデータ) (2025-02-04T15:10:33Z) - Vintix: Action Model via In-Context Reinforcement Learning [72.65703565352769]
In-context reinforcement learning を通じて振る舞いを学習できる固定されたクロスドメインモデルを導入することで ICRL のスケールアップに向けた第一歩を提示する。
ICRLを促進するために設計されたフレームワークであるアルゴリズム蒸留は、多目的な作用モデルを構築するために、専門家蒸留に代わる魅力的な、競争力のある代替手段を提供することを示した。
論文 参考訳(メタデータ) (2025-01-31T18:57:08Z) - Improving Retrieval-Augmented Generation through Multi-Agent Reinforcement Learning [51.54046200512198]
Retrieval-augmented Generation (RAG) は、外部の現在の知識を大規模言語モデルに組み込むために広く利用されている。
標準的なRAGパイプラインは、クエリ書き換え、文書検索、文書フィルタリング、回答生成など、いくつかのコンポーネントから構成される。
これらの課題を克服するため,RAGパイプラインを多エージェント協調作業として,各コンポーネントをRLエージェントとして扱うことを提案する。
論文 参考訳(メタデータ) (2025-01-25T14:24:50Z) - Learning Multi-Branch Cooperation for Enhanced Click-Through Rate Prediction at Taobao [51.84189885218365]
MBCnet(Multi-Branch Cooperation Network)を紹介する。
MBCnetは、複数のブランチネットワークが互いに協調して、より複雑な機能相互作用モデリングを可能にする。
大規模産業データセットの実験とアプリでのオンラインA/Bテストは、MBCnetの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-20T06:10:06Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Pistis-RAG: Enhancing Retrieval-Augmented Generation with Human Feedback [41.88662700261036]
RAGシステムは、セマンティックな関連性だけでは生成品質の向上を保証していない場合に制限に直面している。
我々は、LLMと人間の嗜好をよりよく整合させるために、コンテンツ中心のアプローチで設計された新しいRAGフレームワークであるPristis-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-21T08:52:11Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - RACA: Relation-Aware Credit Assignment for Ad-Hoc Cooperation in
Multi-Agent Deep Reinforcement Learning [55.55009081609396]
本稿では、アドホックな協調シナリオにおいてゼロショットの一般化を実現するRACA(Relation-Aware Credit Assignment)と呼ばれる新しい手法を提案する。
RACAは、エージェント間のトポロジ構造を符号化するために、グラフベースのエンコーダ関係を利用する。
提案手法は,StarCraftIIマイクロマネジメントベンチマークとアドホック協調シナリオのベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-02T03:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。