論文の概要: QUARK: Robust Retrieval under Non-Faithful Queries via Query-Anchored Aggregation
- arxiv url: http://arxiv.org/abs/2601.21049v1
- Date: Wed, 28 Jan 2026 21:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.437214
- Title: QUARK: Robust Retrieval under Non-Faithful Queries via Query-Anchored Aggregation
- Title(参考訳): QuaRK: Query-Anchored Aggregation による非有限クエリ下でのロバスト検索
- Authors: Rita Qiuran Lyu, Michelle Manqiao Wang, Lei Shi,
- Abstract要約: QUARKは、非忠実なクエリの下で堅牢な検索を行うためのトレーニング不要のフレームワークである。
この設計により、QUIRKは堅牢性を犠牲にすることなくリコールとランキング品質を改善することができる。
- 参考スコア(独自算出の注目度): 2.505352949111876
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: User queries in real-world retrieval are often non-faithful (noisy, incomplete, or distorted), causing retrievers to fail when key semantics are missing. We formalize this as retrieval under recall noise, where the observed query is drawn from a noisy recall process of a latent target item. To address this, we propose QUARK, a simple yet effective training-free framework for robust retrieval under non-faithful queries. QUARK explicitly models query uncertainty through recovery hypotheses, i.e., multiple plausible interpretations of the latent intent given the observed query, and introduces query-anchored aggregation to combine their signals robustly. The original query serves as a semantic anchor, while recovery hypotheses provide controlled auxiliary evidence, preventing semantic drift and hypothesis hijacking. This design enables QUARK to improve recall and ranking quality without sacrificing robustness, even when some hypotheses are noisy or uninformative. Across controlled simulations and BEIR benchmarks (FIQA, SciFact, NFCorpus) with both sparse and dense retrievers, QUARK improves Recall, MRR, and nDCG over the base retriever. Ablations show QUARK is robust to the number of recovery hypotheses and that anchored aggregation outperforms unanchored max/mean/median pooling. These results demonstrate that modeling query uncertainty through recovery hypotheses, coupled with principled anchored aggregation, is essential for robust retrieval under non-faithful queries.
- Abstract(参考訳): 現実世界の検索におけるユーザクエリは、しばしば不完全(ノイズ、不完全、歪曲)であり、キーセマンティクスが欠落している場合に検索が失敗する。
我々はこれをリコールノイズ下での検索として定式化し、観測されたクエリは潜在対象項目のノイズの多いリコールプロセスから引き出される。
そこで本研究では,非忠実なクエリ下でのロバスト検索のための,シンプルで効果的なトレーニング不要なフレームワークであるQUARKを提案する。
QuaRK は、回復仮説(すなわち、観測されたクエリに与えられた潜在意図の複数の妥当な解釈)を通じてクエリの不確実性を明示的にモデル化し、そのシグナルを堅牢に結合するためにクエリアンコールアグリゲーションを導入している。
元のクエリはセマンティックアンカーとして機能し、リカバリ仮説は制御された補助的な証拠を提供し、セマンティックドリフトと仮説ハイジャックを防ぐ。
この設計により、いくつかの仮説がノイズや非形式的であっても、頑丈さを犠牲にすることなく、QORKはリコールとランキング品質を改善することができる。
制御されたシミュレーションと BEIR ベンチマーク (FIQA, SciFact, NFCorpus) はスパースとディープレトリバーの両方で行われ、quRK はリコール、MRR、nDCG をベースレトリバー上で改善する。
アブレーションにより、QUIRKはリカバリ仮説の数に対して堅牢であり、アンロックされたアグリゲーションはアンアンコレッドのmax/mean/medianプールよりも優れていることが示された。
これらの結果から, 回復仮説による問合せ不確実性をモデル化し, 基本的アンカー集約と組み合わせることで, 非忠実な問合せ条件下でのロバスト検索に不可欠であることが示唆された。
関連論文リスト
- PruneRAG: Confidence-Guided Query Decomposition Trees for Efficient Retrieval-Augmented Generation [19.832367438725306]
PruneRAGは、安定かつ効率的な推論を行うために構造化されたクエリ分解ツリーを構築する。
我々は,ゴールデンエビデンスを回収するが正しく使用しない事例を定量化するための指標として,エビデンス予測率を定義した。
論文 参考訳(メタデータ) (2026-01-16T06:38:17Z) - ClueAnchor: Clue-Anchored Knowledge Reasoning Exploration and Optimization for Retrieval-Augmented Generation [82.54090885503287]
Retrieval-Augmented Generationは、外部知識を持つ大規模言語モデルを拡張して、事実性を改善する。
既存のRAGシステムは、忠実で解釈可能な推論をサポートするために必要な重要な手がかりを抽出して統合することができない。
本稿では,手掛かり付き推論探索と最適化によるRAG向上のための新しいフレームワークであるClueAnchorを提案する。
論文 参考訳(メタデータ) (2025-05-30T09:18:08Z) - Faithfulness-Aware Uncertainty Quantification for Fact-Checking the Output of Retrieval Augmented Generation [108.13261761812517]
本稿では,RAG出力における幻覚検出の新しい手法であるFRANQ(Fithfulness-based Retrieval Augmented Uncertainty Quantification)を紹介する。
本稿では,事実性と忠実性の両方に注釈を付したQAデータセットを提案する。
論文 参考訳(メタデータ) (2025-05-27T11:56:59Z) - ConvSearch-R1: Enhancing Query Reformulation for Conversational Search with Reasoning via Reinforcement Learning [48.01143057928348]
本稿では、強化学習を活用して外部リライト管理に依存しないフレームワークであるConvSearch-R1を提案する。
新たな2段階のアプローチは,検索誘導型自己蒸留によるコールドスタート問題に対処するために,セルフ駆動型ポリシーウォームアップと,従来型の検索指標における疎度問題に対処する特別に設計されたランクインセンティブ報酬形成機構を備えた検索誘導型強化学習を組み合わせたものである。
論文 参考訳(メタデータ) (2025-05-21T17:27:42Z) - ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning [64.93140713419561]
大型推論モデル (LRM) は、Chain-of-Thought (CoT) による複雑な推論タスクで強く機能するが、しばしば冗長な出力に悩まされる。
既存の微調整ベースの圧縮手法は、ポストホックプルーニングを動作させるか、コヒーレンスを推論する破壊を危険にさらすか、サンプリングベースの選択に依存するかのいずれかである。
ConCISEは、簡潔な推論連鎖を生成するために設計されたフレームワークであり、信頼注入を統合して推論の信頼性を高める。
論文 参考訳(メタデータ) (2025-05-08T01:40:40Z) - SUGAR: Leveraging Contextual Confidence for Smarter Retrieval [28.552283701883766]
セマンティック不確実性誘導適応検索(SUGAR)について紹介する。
我々は、文脈に基づくエントロピーを利用して、検索するかどうかを積極的に決定し、シングルステップとマルチステップの検索を更に決定する。
実験の結果,意味的不確実性推定によって導かれる選択探索により,多様な質問応答タスクのパフォーマンスが向上し,より効率的な推論が達成された。
論文 参考訳(メタデータ) (2025-01-09T01:24:59Z) - pEBR: A Probabilistic Approach to Embedding Based Retrieval [9.186585413958769]
埋め込みベースの検索は、クエリとアイテムの両方の共有セマンティック表現空間を学習することを目的としている。
我々は,textbfprobabilistic textbfEmbedding-textbfBased textbfRetrieval (textbfpEBR) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T07:14:12Z) - ReFIT: Relevance Feedback from a Reranker during Inference [109.33278799999582]
Retrieve-and-Rerankは、ニューラル情報検索の一般的なフレームワークである。
本稿では,リランカを利用してリコールを改善する手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T15:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。