論文の概要: OptiSet: Unified Optimizing Set Selection and Ranking for Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2601.05027v1
- Date: Thu, 08 Jan 2026 15:35:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.253824
- Title: OptiSet: Unified Optimizing Set Selection and Ranking for Retrieval-Augmented Generation
- Title(参考訳): OptiSet: Retrieval-Augmented Generationのための統一された最適化セットの選択とランク付け
- Authors: Yi Jiang, Sendong Zhao, Jianbo Li, Bairui Hu, Yanrui Du, Haochun Wang, Bing Qin,
- Abstract要約: 検索補助生成(RAG)は、大規模な外部コーパスから取得した証拠を組み込むことで、生成品質を向上させる。
セット選択とセットレベルのランキングを統一する,セット中心のフレームワークであるOptiSetを提案する。
- 参考スコア(独自算出の注目度): 46.01696202049653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-Augmented Generation (RAG) improves generation quality by incorporating evidence retrieved from large external corpora. However, most existing methods rely on statically selecting top-k passages based on individual relevance, which fails to exploit combinatorial gains among passages and often introduces substantial redundancy. To address this limitation, we propose OptiSet, a set-centric framework that unifies set selection and set-level ranking for RAG. OptiSet adopts an "Expand-then-Refine" paradigm: it first expands a query into multiple perspectives to enable a diverse candidate pool and then refines the candidate pool via re-selection to form a compact evidence set. We then devise a self-synthesis strategy without strong LLM supervision to derive preference labels from the set conditional utility changes of the generator, thereby identifying complementary and redundant evidence. Finally, we introduce a set-list wise training strategy that jointly optimizes set selection and set-level ranking, enabling the model to favor compact, high-gain evidence sets. Extensive experiments demonstrate that OptiSet improves performance on complex combinatorial problems and makes generation more efficient. The source code is publicly available.
- Abstract(参考訳): 検索補助生成(RAG)は、大規模な外部コーパスから取得した証拠を組み込むことで、生成品質を向上させる。
しかし、既存のほとんどの手法は、個々の関連性に基づいて静的にトップkパスを選択することに依存しており、パス間の組合せゲインを活用できず、しばしばかなりの冗長性をもたらす。
この制限に対処するため,セット選択とセットレベルのランキングを統一するセット中心フレームワークであるOptiSetを提案する。
OptiSetは"Expand-then-Refine"パラダイムを採用しており、まずクエリを複数の視点に拡張して、多様な候補プールを有効にし、再選択によって候補プールを洗練し、コンパクトなエビデンスセットを形成する。
そこで我々は,所定条件付きユーティリティ変化から選好ラベルを導出し,補完的かつ冗長なエビデンスを同定するために,強力なLLM監督を伴わない自己合成戦略を考案した。
最後に、セット選択とセットレベルのランク付けを協調的に最適化し、モデルがコンパクトで高利得なエビデンスセットを選択できるようにするセットリストワイズトレーニング戦略を導入する。
大規模な実験により、OptiSetは複雑な組合せ問題の性能を改善し、生成をより効率的にすることを示した。
ソースコードは公開されている。
関連論文リスト
- Building Coding Agents via Entropy-Enhanced Multi-Turn Preference Optimization [13.271737599933147]
本稿では,エントロピー強化フレームワークであるEntroPOを紹介し,既存の優先最適化アルゴリズムをマルチターンツール支援設定に適用する。
EntroPOは、さまざまな家族やサイズのモデル群を微調整することで検証する。
swebenchのリーダーボードでは、オープンウェイトモデルの間で、新しい最先端の結果が確立される。
論文 参考訳(メタデータ) (2025-09-15T20:36:19Z) - Zooming from Context to Cue: Hierarchical Preference Optimization for Multi-Image MLLMs [74.74767980885758]
マルチレベル優先最適化フレームワークであるContext-to-Cue Direct Preference Optimization (CcDPO)を提案する。
CcDPOは、シーケンシャルなコンテキストからローカルな詳細まで、視覚的なヒントをズームすることで、マルチイメージ設定でのイメージ単位の知覚を強化する。
実験により、CcDPOは幻覚を著しく減少させ、一貫した性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2025-05-28T14:24:02Z) - Rethinking LLM-Based Recommendations: A Personalized Query-Driven Parallel Integration [22.650609670923732]
本稿では,大規模言語モデルを候補選択から切り離す並列レコメンデーションフレームワークを提案する。
我々のフレームワークはLLMとレコメンデーションモデルを並列に結合し、各コンポーネントが独立してその強みを活用できるようにする。
論文 参考訳(メタデータ) (2025-04-16T09:17:45Z) - AMPO: Active Multi-Preference Optimization for Self-play Preference Selection [16.230186347702737]
マルチパラメータ最適化は、有用な応答と望ましくない応答の集合全体を対比することにより、ペアの好みを超えた言語モデルアライメントを強化する。
そこで本稿では,オンライン・プライス・ジェネレーション,マルチ・コントラスト・グループ・コントラスト・ロス,アクティブ・サブセット選択を組み合わせた新しいアプローチである,$textitActive Multi-Preference Optimization$ (AMPO)を提案する。
AMPO は Llama 8B と Mistral Mist 7B を使って $textitAlpacaEval$ で最先端の結果を得る。
論文 参考訳(メタデータ) (2025-02-25T15:29:51Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Training Greedy Policy for Proposal Batch Selection in Expensive Multi-Objective Combinatorial Optimization [52.80408805368928]
本稿では,バッチ取得のための新しいグリーディ型サブセット選択アルゴリズムを提案する。
赤蛍光タンパク質に関する実験により,提案手法は1.69倍少ないクエリでベースライン性能を達成できることが判明した。
論文 参考訳(メタデータ) (2024-06-21T05:57:08Z) - Efficient Prompt Optimization Through the Lens of Best Arm Identification [50.56113809171805]
この作業は、明示的な予算制約の下でプロンプト選択を効率的に行うための、原則化されたフレームワークであるTRIPLEを提供する。
マルチアームバンディット(MAB)における即時最適化と固定予算ベストアーム識別(BAI-FB)の間に確立された新しい接続上に構築されている。
論文 参考訳(メタデータ) (2024-02-15T05:31:13Z) - Relative Preference Optimization: Enhancing LLM Alignment through Contrasting Responses across Identical and Diverse Prompts [95.09994361995389]
Relative Preference Optimization (RPO) は、同一のプロンプトと関連するプロンプトの両方から、より多く、あまり好まれない応答を識別するように設計されている。
RPOは、大きな言語モデルをユーザの好みに合わせて調整し、トレーニングプロセスにおける適応性を改善する優れた能力を示している。
論文 参考訳(メタデータ) (2024-02-12T22:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。