論文の概要: Enhancing Conversational Search: Large Language Model-Aided Informative
Query Rewriting
- arxiv url: http://arxiv.org/abs/2310.09716v2
- Date: Wed, 18 Oct 2023 13:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:50:32.086176
- Title: Enhancing Conversational Search: Large Language Model-Aided Informative
Query Rewriting
- Title(参考訳): 対話型検索の強化:大言語モデルを用いたインフォーマティブクエリ書き換え
- Authors: Fanghua Ye, Meng Fang, Shenghui Li, Emine Yilmaz
- Abstract要約: 本稿では,大規模言語モデル(LLM)をクエリリフレクタとして利用することを提案する。
精巧な書き直しのための4つの重要な特性を定義し、それら全てをインストラクションに組み込む。
初期クエリの書き直しが可能な場合, LLM の書き直しエディタの役割を導入し, "書き直し-テーマ-編集" プロセスを作成する。
- 参考スコア(独自算出の注目度): 42.35788605017555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query rewriting plays a vital role in enhancing conversational search by
transforming context-dependent user queries into standalone forms. Existing
approaches primarily leverage human-rewritten queries as labels to train query
rewriting models. However, human rewrites may lack sufficient information for
optimal retrieval performance. To overcome this limitation, we propose
utilizing large language models (LLMs) as query rewriters, enabling the
generation of informative query rewrites through well-designed instructions. We
define four essential properties for well-formed rewrites and incorporate all
of them into the instruction. In addition, we introduce the role of rewrite
editors for LLMs when initial query rewrites are available, forming a
"rewrite-then-edit" process. Furthermore, we propose distilling the rewriting
capabilities of LLMs into smaller models to reduce rewriting latency. Our
experimental evaluation on the QReCC dataset demonstrates that informative
query rewrites can yield substantially improved retrieval performance compared
to human rewrites, especially with sparse retrievers.
- Abstract(参考訳): クエリ書き換えは、コンテキスト依存のユーザクエリをスタンドアロンのフォームに変換することで、会話検索を強化する上で重要な役割を果たす。
既存のアプローチは主に、人間が書き直したクエリをラベルとして利用して、クエリ書き換えモデルをトレーニングしている。
しかし、人間の書き直しは最適な検索性能のための十分な情報に欠ける可能性がある。
この制限を克服するため、我々は、大きな言語モデル(LLM)をクエリ書き換え子として利用し、よく設計された命令による情報的クエリ書き換えを可能にする。
精巧な書き直しのための4つの重要な特性を定義し、それら全てを命令に組み込む。
さらに、初期クエリ書き換えが可能な場合、LCMの書き換えエディターの役割を導入し、"書き直し-then-edit"プロセスを作成する。
さらに,LLMの書き換え性能を小型モデルに蒸留し,書き換え遅延を低減することを提案する。
qreccデータセットを実験的に評価した結果,特にスパースレトリビュータでは,検索性能が検索性能に比較して大幅に向上することが示された。
関連論文リスト
- Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - LLM-R2: A Large Language Model Enhanced Rule-based Rewrite System for Boosting Query Efficiency [65.01402723259098]
本稿では,LLM-R2 という新しいクエリ書き換え手法を提案する。
実験結果から,本手法はクエリ実行効率を大幅に向上し,ベースライン法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-19T13:17:07Z) - Ask Optimal Questions: Aligning Large Language Models with Retriever's
Preference in Conversational Search [25.16282868262589]
RetPOは、ターゲット検索システムの好みに合わせて検索クエリを再構成するための言語モデル(LM)を最適化するように設計されている。
我々は、12Kの会話で410K以上のクエリを書き換えるRetrievers' Feedbackと呼ばれる大規模なデータセットを構築した。
このモデルにより,最近の2つの対話型検索ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-02-19T04:41:31Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。