論文の概要: AdaRewriter: Unleashing the Power of Prompting-based Conversational Query Reformulation via Test-Time Adaptation
- arxiv url: http://arxiv.org/abs/2506.01381v1
- Date: Mon, 02 Jun 2025 07:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.72779
- Title: AdaRewriter: Unleashing the Power of Prompting-based Conversational Query Reformulation via Test-Time Adaptation
- Title(参考訳): AdaRewriter: テスト時間適応によるプロンプトベースの会話クエリのリフォーム
- Authors: Yilong Lai, Jialong Wu, Zhenglin Wang, Deyu Zhou,
- Abstract要約: AdaRewriterは、テスト時間適応による結果管理報酬モデルを用いたクエリ再構成のための新しいフレームワークである。
AdaRewriterは、ほとんどの設定で既存のメソッドよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 15.636206677155783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompting-based conversational query reformulation has emerged as a powerful approach for conversational search, refining ambiguous user queries into standalone search queries. Best-of-N reformulation over the generated candidates via prompting shows impressive potential scaling capability. However, both the previous tuning methods (training time) and adaptation approaches (test time) can not fully unleash their benefits. In this paper, we propose AdaRewriter, a novel framework for query reformulation using an outcome-supervised reward model via test-time adaptation. By training a lightweight reward model with contrastive ranking loss, AdaRewriter selects the most promising reformulation during inference. Notably, it can operate effectively in black-box systems, including commercial LLM APIs. Experiments on five conversational search datasets show that AdaRewriter significantly outperforms the existing methods across most settings, demonstrating the potential of test-time adaptation for conversational query reformulation.
- Abstract(参考訳): プロンプトベースの会話クエリのリフォームは、会話検索の強力なアプローチとして現れ、あいまいなユーザクエリをスタンドアロンの検索クエリに書き換えている。
プロンプトによる生成候補に対するNの最良の改定は、潜在的なスケーリング能力を示す。
しかし、従来のチューニング方法(トレーニング時間)と適応アプローチ(テスト時間)の両方が、そのメリットを完全に解き放つことはできない。
本稿では,AdaRewriterを提案する。AdaRewriterは,テスト時間適応による結果教師付き報酬モデルを用いてクエリ再構成を行う新しいフレームワークである。
対照的なランキング損失を伴う軽量な報酬モデルをトレーニングすることにより、AdaRewriterは推論中に最も有望な改革を選択する。
特に、商用LLM APIを含むブラックボックスシステムで効果的に動作する。
5つの会話型検索データセットの実験により、AdaRewriterは既存の手法よりもはるかに優れており、会話型クエリ再構成におけるテスト時適応の可能性を示している。
関連論文リスト
- AdaCQR: Enhancing Query Reformulation for Conversational Search via Sparse and Dense Retrieval Alignment [16.62505706601199]
本稿では,対話型検索再構成のための新しいフレームワークAdaCQRを提案する。
AdaCQRは、情報検索クエリの一般化性を向上させる。
TopiOCQAとQReCCデータセットの実験結果は、AdaCQRが既存のメソッドをより効率的なフレームワークで上回ることを示した。
論文 参考訳(メタデータ) (2024-07-02T05:50:16Z) - Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - Generative Query Reformulation Using Ensemble Prompting, Document Fusion, and Relevance Feedback [8.661419320202787]
GenQREnsembleとGenQRFusionはゼロショット命令のパラフレーズを利用して複数のキーワードセットを生成し、検索性能を向上させる。
検索前設定ではnDCG@10で最大18%,検索後設定では9%の精度で検索効率を向上できることを示す。
論文 参考訳(メタデータ) (2024-05-27T21:03:26Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - ConvGQR: Generative Query Reformulation for Conversational Search [37.54018632257896]
ConvGQRは、生成事前訓練された言語モデルに基づいて会話クエリを再構成する新しいフレームワークである。
本稿では,クエリ再構成と検索の両方を最適化する知識注入機構を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:45:06Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。