論文の概要: UiS-IAI@LiveRAG: Retrieval-Augmented Information Nugget-Based Generation of Responses
- arxiv url: http://arxiv.org/abs/2506.22210v1
- Date: Fri, 27 Jun 2025 13:29:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.211087
- Title: UiS-IAI@LiveRAG: Retrieval-Augmented Information Nugget-Based Generation of Responses
- Title(参考訳): UiS-IAI@LiveRAG:Retrieval-Augmented Information Nugget-based Generation of Responses
- Authors: Weronika Łajewska, Ivica Kostric, Gabriel Iturra-Bocaz, Mariam Arustashvili, Krisztian Balog,
- Abstract要約: Retrieval-augmented Generation (RAG) は、事実の正しさ、ソース属性、応答完全性に関連する課題に直面している。
本稿では,検索した文書から抽出した関連情報の最小限の原子単位である情報ナゲットに基づくモジュールパイプラインを提案する。
- 参考スコア(独自算出の注目度): 11.798121559820792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) faces challenges related to factual correctness, source attribution, and response completeness. The LiveRAG Challenge hosted at SIGIR'25 aims to advance RAG research using a fixed corpus and a shared, open-source LLM. We propose a modular pipeline that operates on information nuggets-minimal, atomic units of relevant information extracted from retrieved documents. This multistage pipeline encompasses query rewriting, passage retrieval and reranking, nugget detection and clustering, cluster ranking and summarization, and response fluency enhancement. This design inherently promotes grounding in specific facts, facilitates source attribution, and ensures maximum information inclusion within length constraints. In this challenge, we extend our focus to also address the retrieval component of RAG, building upon our prior work on multi-faceted query rewriting. Furthermore, for augmented generation, we concentrate on improving context curation capabilities, maximizing the breadth of information covered in the response while ensuring pipeline efficiency. Our results show that combining original queries with a few sub-query rewrites boosts recall, while increasing the number of documents used for reranking and generation beyond a certain point reduces effectiveness, without improving response quality.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、事実の正しさ、ソース属性、応答完全性に関連する課題に直面している。
SIGIR'25で開催されているLiveRAG Challengeは、固定コーパスとオープンソースLLMを使用してRAG研究を進めることを目的としている。
本稿では,検索した文書から抽出した関連情報の最小限の原子単位である情報ナゲットに基づくモジュールパイプラインを提案する。
このマルチステージパイプラインは、クエリ書き換え、パス検索とリランク、ナゲット検出とクラスタリング、クラスタのランク付けと要約、応答流速向上を含む。
この設計は、本質的に特定の事実の基盤化を促進し、ソース属性を促進し、長さ制約内に最大情報を含めることを保証する。
この課題では、RAGの検索コンポーネントにも焦点をあてて、複数面のクエリ書き換えに関する以前の研究に基づいています。
さらに、拡張生成では、パイプライン効率を確保しつつ、応答でカバーされる情報の幅を最大化し、コンテキストキュレーション機能の改善に重点を置いている。
結果から,いくつかのサブクエリリライトとオリジナルクエリを組み合わせることでリコールが促進される一方で,特定のポイントを超えて再ランク付けおよび生成に使用するドキュメントの数が増加することにより,応答品質が向上することなく,効率が低下することがわかった。
関連論文リスト
- Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [97.72503890388866]
本稿では,選択的検索と知識の言語化を結合する新しいフレームワークであるSelf-Routing RAG(SR-RAG)を提案する。
SR-RAGは、LLMが外部検索と独自のパラメトリック知識の言語化を動的に決定できるようにする。
近接探索による動的知識源推定を導入し,知識源決定の精度を向上させる。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - GINGER: Grounded Information Nugget-Based Generation of Responses [14.389703823471574]
そこで我々は,ヌゲット検出,クラスタリング,ランキング,トップクラスタの要約,および流速向上を基盤とした,接地応答生成のためのモジュールパイプラインを提案する。
AutoNuggetizerフレームワークで評価されたTREC RAG'24データセットの実験は、GINGERがこのベンチマークで最先端のパフォーマンスを達成したことを示している。
論文 参考訳(メタデータ) (2025-03-23T19:10:23Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - DeepNote: Note-Centric Deep Retrieval-Augmented Generation [72.70046559930555]
Retrieval-Augmented Generation (RAG)は質問応答のための大規模言語モデル(LLM)における事実誤りと幻覚を緩和する
我々は、ノート中心の適応検索により、知識ソースの奥深くで堅牢な探索を実現する適応RAGフレームワークであるDeepNoteを開発した。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs [5.09189220106765]
オープンドメイン問合せタスクのための大規模言語モデル(LLM)を介してQPaug(Q and passage augmentation)と呼ばれるシンプルで効率的な手法を提案する。
実験の結果,QPaugは従来の最先端技術よりも優れており,既存のRAG法よりも大きな性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-06-20T12:59:27Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。