論文の概要: DIVERGE: Diversity-Enhanced RAG for Open-Ended Information Seeking
- arxiv url: http://arxiv.org/abs/2602.00238v1
- Date: Fri, 30 Jan 2026 19:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.072088
- Title: DIVERGE: Diversity-Enhanced RAG for Open-Ended Information Seeking
- Title(参考訳): DIVERGE: オープンエンディング情報検索のための多様性向上型RAG
- Authors: Tianyi Hu, Niket Tandon, Akhil Arora,
- Abstract要約: 本稿では,新しいリフレクション誘導生成とメモリ拡張反復改善機能を備えたプラグアンドプレイエージェントRAGフレームワークを提案する。
我々は,DIVERGEが競争基準よりも優れた多様性と品質のトレードオフを達成できることを実証した。
- 参考スコア(独自算出の注目度): 10.970797088560323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing retrieval-augmented generation (RAG) systems are primarily designed under the assumption that each query has a single correct answer. This overlooks common information-seeking scenarios with multiple plausible answers, where diversity is essential to avoid collapsing to a single dominant response, thereby constraining creativity and compromising fair and inclusive information access. Our analysis reveals a commonly overlooked limitation of standard RAG systems: they underutilize retrieved context diversity, such that increasing retrieval diversity alone does not yield diverse generations. To address this limitation, we propose DIVERGE, a plug-and-play agentic RAG framework with novel reflection-guided generation and memory-augmented iterative refinement, which promotes diverse viewpoints while preserving answer quality. We introduce novel metrics tailored to evaluating the diversity-quality trade-off in open-ended questions, and show that they correlate well with human judgments. We demonstrate that DIVERGE achieves the best diversity-quality trade-off compared to competitive baselines and previous state-of-the-art methods on the real-world Infinity-Chat dataset, substantially improving diversity while maintaining quality. More broadly, our results reveal a systematic limitation of current LLM-based systems for open-ended information-seeking and show that explicitly modeling diversity can mitigate it. Our code is available at: https://github.com/au-clan/Diverge
- Abstract(参考訳): 既存の検索拡張生成システム(RAG)は主に、各クエリが単一の正解を持つという前提のもとに設計されている。
これは、単一の支配的な応答に崩壊することを避けるために多様性が不可欠であり、創造性を制限し、公正で包括的な情報アクセスを妥協する、複数のプラウチブルな回答を持つ一般的な情報探索シナリオを見落としている。
我々の分析では、検索された文脈の多様性を弱くし、検索の多様性を増大させるだけでは多様な世代が得られないという、標準的なRAGシステムに一般的に見過ごされる制限を明らかにした。
この制限に対処するために,新しいリフレクション誘導型生成とメモリ拡張型反復改善機能を備えたプラグアンドプレイエージェントRAGフレームワークであるDIVERGEを提案する。
オープンエンドの質問における多様性のトレードオフを評価するのに適した新しい指標を導入し、それらが人間の判断とよく相関していることを示す。
実世界のInfinity-Chatデータセット上で,競争ベースラインや従来の最先端手法と比較して,DIVERGEが最高の多様性と品質のトレードオフを実現し,品質を維持しながら多様性を著しく向上させることを実証した。
より広範に、我々の結果は、オープンエンド情報検索のための現在のLLMベースのシステムの体系的な制限を明らかにし、明確にモデリングの多様性が軽減できることを示す。
私たちのコードは、https://github.com/au-clan/Diverge.comで利用可能です。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - UniversalRAG: Retrieval-Augmented Generation over Corpora of Diverse Modalities and Granularities [53.76854299076118]
UniversalRAGは異種情報源からの知識を多様さと粒度で検索・統合するための新しいRAGフレームワークである。
本稿では,最も適切なモダリティ固有コーパスを動的に識別し,その内部でターゲット検索を行うモダリティ対応ルーティング機構を提案する。
マルチモーダル性にまたがる8つのベンチマークでUniversalRAGを検証する。
論文 参考訳(メタデータ) (2025-04-29T13:18:58Z) - Diversity Enhances an LLM's Performance in RAG and Long-context Task [13.165004097488655]
一般的なアプローチは、クエリに最も近いコンテンツを選択することである。
これはしばしば冗長性と、多様だが関連する情報の排除につながる。
その結果,多様性を取り入れることで,関連文やチャンクの選択のリコールが大幅に増加することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-13T07:11:01Z) - Pistis-RAG: Enhancing Retrieval-Augmented Generation with Human Feedback [41.88662700261036]
RAGシステムは、セマンティックな関連性だけでは生成品質の向上を保証していない場合に制限に直面している。
我々は、LLMと人間の嗜好をよりよく整合させるために、コンテンツ中心のアプローチで設計された新しいRAGフレームワークであるPristis-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-21T08:52:11Z) - CRUD-RAG: A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models [49.16989035566899]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の能力を高める技術である。
本稿では,大規模かつ包括的なベンチマークを構築し,様々なRAGアプリケーションシナリオにおけるRAGシステムのすべてのコンポーネントを評価する。
論文 参考訳(メタデータ) (2024-01-30T14:25:32Z) - Diversify Question Generation with Retrieval-Augmented Style Transfer [68.00794669873196]
本稿では,検索型スタイル転送のためのフレームワーク RAST を提案する。
本研究の目的は,多様なテンプレートのスタイルを質問生成に活用することである。
多様性報酬と一貫性報酬の重み付けを最大化する新しい強化学習(RL)ベースのアプローチを開発する。
論文 参考訳(メタデータ) (2023-10-23T02:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。