論文の概要: Cooperative Retrieval-Augmented Generation for Question Answering: Mutual Information Exchange and Ranking by Contrasting Layers
- arxiv url: http://arxiv.org/abs/2512.10422v3
- Date: Wed, 17 Dec 2025 16:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 15:03:26.91555
- Title: Cooperative Retrieval-Augmented Generation for Question Answering: Mutual Information Exchange and Ranking by Contrasting Layers
- Title(参考訳): 相互情報交換とコントラスト層によるランク付けのための協調検索型質問応答生成
- Authors: Youmin Ko, Sungjong Seo, Hyunjoon Kim,
- Abstract要約: CoopRAGは、レトリバーとLLMが協調して動作する質問応答タスクのための新しいRAGフレームワークである。
実験の結果、CoopRAGは3つのマルチホップQAデータセットと単純なQAデータセットに対して、最先端QA手法を一貫して上回っていることがわかった。
- 参考スコア(独自算出の注目度): 2.007262412327553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since large language models (LLMs) have a tendency to generate factually inaccurate output, retrieval-augmented generation (RAG) has gained significant attention as a key means to mitigate this downside of harnessing only LLMs. However, existing RAG methods for simple and multi-hop question answering (QA) are still prone to incorrect retrievals and hallucinations. To address these limitations, we propose CoopRAG, a novel RAG framework for the question answering task in which a retriever and an LLM work cooperatively with each other by exchanging informative knowledge, and the earlier and later layers of the retriever model work cooperatively with each other to accurately rank the retrieved documents relevant to a given query. In this framework, we (i) unroll a question into sub-questions and a reasoning chain in which uncertain positions are masked, (ii) retrieve the documents relevant to the question augmented with the sub-questions and the reasoning chain, (iii) rerank the documents by contrasting layers of the retriever, and (iv) reconstruct the reasoning chain by filling the masked positions via the LLM. Our experiments demonstrate that CoopRAG consistently outperforms state-of-the-art QA methods on three multi-hop QA datasets as well as a simple QA dataset in terms of both the retrieval and QA performances. Our code is available.
- Abstract(参考訳): 大規模言語モデル (LLM) は, 事実的不正確な出力を生成する傾向にあるため, 検索強化生成 (RAG) は, LLM のみを利用するという欠点を軽減する重要な手段として注目されている。
しかし, 従来のRAG法では, 検索や幻覚の誤りがみられがちである。
このような制約に対処するために,検索者とLLMが情報的知識を交換して協調作業を行う質問応答タスクのための新しいRAGフレームワークであるCoopRAGを提案する。
この枠組みでは
一 疑問をサブクエスト及び不確実な位置が隠蔽された推論連鎖に解き放つこと。
二 サブクエスト及び推論チェーンに付帯した質問に係る書類を検索すること。
三 回収者の層を対比して書類を再引用すること。
4)LSMを介してマスクされた位置を充填して推論チェーンを再構築すること。
実験の結果、CoopRAGは3つのマルチホップQAデータセットと単純なQAデータセットにおいて、検索とQAの両方のパフォーマンスにおいて、最先端QA手法を一貫して上回っていることがわかった。
私たちのコードは利用可能です。
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - Question Decomposition for Retrieval-Augmented Generation [2.6409776648054764]
本稿では疑問分解をサブクエストに組み込んだRAGパイプラインを提案する。
補間的な文書を効果的に組み立てる一方で、再ランク付けによってノイズが減少することを示す。
再ランク自体は標準的なものであるが、LLMによる質問分解と既製のクロスエンコーダのペアリングは、マルチホップ質問の検索ギャップを橋渡しすることを示す。
論文 参考訳(メタデータ) (2025-07-01T01:01:54Z) - ReSCORE: Label-free Iterative Retriever Training for Multi-hop Question Answering with Relevance-Consistency Supervision [23.80886911344813]
マルチホップ質問の回答には、複雑な質問に答えるために複数のドキュメントをまたがる推論が含まれる。
センスレトリバーは通常、セマンティック埋め込みを利用してBM25のようなスパースメソッドより優れている。
ReSCOREはラベル付き文書を使わずにMHQAの高密度検索を訓練するための新しい手法である。
論文 参考訳(メタデータ) (2025-05-27T14:28:24Z) - R3-RAG: Learning Step-by-Step Reasoning and Retrieval for LLMs via Reinforcement Learning [60.17074283370798]
Retrieval-Augmented Generation (RAG)は、外部知識をLLM(Large Language Models)と統合し、事実の正しさと幻覚を高める。
我々は、 $textbfR$einforcement Learning を用いて LLM に $textbfR$eason と $textbfR$etrieve を段階的に学習させる $textbfR3-RAG$ を提案する。
論文 参考訳(メタデータ) (2025-05-26T12:25:37Z) - Can we Retrieve Everything All at Once? ARM: An Alignment-Oriented LLM-based Retrieval Method [48.14236175156835]
ARMは、データオブジェクト間の関係を探索することで、データ収集の組織とよりよく一致させることを目指している。
クエリ分解の精度は最大5.2 pt、エージェントRAG(ReAct)は最大15.9 ptである。
最大5.5 pt、19.3 ptのF1マッチスコアをこれらのアプローチと比較して達成する。
論文 参考訳(メタデータ) (2025-01-30T18:07:19Z) - W-RAG: Weakly Supervised Dense Retrieval in RAG for Open-domain Question Answering [28.79851078451609]
W-RAGは、下流タスクから弱いトレーニング信号を抽出し、検索者がタスクに最も利益をもたらすパスを優先順位付けするように微調整する手法である。
我々は4つの公開可能なOpenQAデータセットの包括的な実験を行い、我々のアプローチが検索とOpenQAのパフォーマンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-08-15T22:34:44Z) - EfficientRAG: Efficient Retriever for Multi-Hop Question Answering [52.64500643247252]
マルチホップ質問応答のための効率的な検索器であるEfficientRAGを紹介する。
実験の結果、EfficientRAGは3つのオープンドメインのマルチホップ質問応答データセット上で既存のRAG手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-08-08T06:57:49Z) - TRACE the Evidence: Constructing Knowledge-Grounded Reasoning Chains for Retrieval-Augmented Generation [30.485127201645437]
本稿では,RAGモデルのマルチホップ推論能力を高めるためにTRACEを提案する。
TRACEは、論理的に連結された一連の知識三重項である知識基底推論連鎖を構成する。
TRACEは、取得したすべてのドキュメントと比較して、平均14.03%の性能向上を実現している。
論文 参考訳(メタデータ) (2024-06-17T12:23:32Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。